Anunciada en una conferencia para desarrolladores en San Francisco, esta función permite a los agentes de IA procesar y optimizar sus registros operativos durante los periodos de inactividad, refinando así sus rutas de acción para futuras tareas.
Este mecanismo forma parte de un conjunto más amplio de actualizaciones que incluye una memoria mejorada y la colaboración entre múltiples agentes.
La función «soñar» se describe como un sistema automatizado de procesamiento por lotes de registros sin conexión, donde los agentes revisan y reorganizan los registros históricos para identificar patrones y optimizar acciones futuras. Este proceso es similar al aprendizaje por refuerzo, donde los agentes se autocorrigen basándose en datos anteriores.
El enfoque de Anthropic refleja funciones similares en otras plataformas de IA, como la función «Soñar» de OpenClaw, que organiza y consolida la información en la memoria a largo plazo mediante un proceso estructurado.
Estos avances reflejan una tendencia creciente en el desarrollo de la IA, donde capacidades similares a las humanas, como la memoria y la capacidad de soñar, se integran en los sistemas de aprendizaje automático para mejorar la eficiencia y la adaptabilidad.
Al aprovechar estas características, los agentes de IA pueden gestionar mejor las tareas complejas de varios pasos, lo que mejora su utilidad en diversas aplicaciones.
Alex Albert, responsable de la gestión de productos de investigación en Anthropic, explicó el concepto en una entrevista durante la conferencia. Describió el concepto de «soñar» como análogo a cómo las personas dentro de las organizaciones desarrollan habilidades tras completar una tarea. «Podrían realizar un flujo de trabajo con Claude y, al final, tras iterar y explorar diferentes caminos, quieren registrar la ruta desde el punto A al punto B», explicó Albert. «Algo muy similar ocurre con el concepto de ‘soñar’: en lugar de que crees manualmente la habilidad a partir de tu experiencia trabajando con Claude, el modelo lo hace automáticamente, por lo que conserva el mismo contexto para futuras sesiones».
Fundamentalmente, soñar no modifica los pesos del modelo subyacente. «No estamos cambiando el modelo en sí mismo a través de los sueños; no se realizan actualizaciones de los pesos ni nada por el estilo», dijo Albert. En cambio, el agente escribe los aprendizajes como notas de texto plano y «manuales de instrucciones» estructurados a los que se puede recurrir en sesiones futuras, lo que hace que todo el proceso sea observable y auditable por los humanos.
Cuando se le preguntó sobre las implicaciones de confianza de que los agentes consoliden su propio conocimiento, Albert reconoció que «hay un nivel de confianza que se debe depositar», pero señaló que todos los recuerdos son inspeccionables y que los modelos más inteligentes están mejorando progresivamente en la gestión de este proceso. «Están aprendiendo a escribir mejores notas para su yo futuro», dijo.
Los primeros usuarios ya están reportando resultados significativos. La empresa de IA legal Harvey vio cómo las tasas de finalización de tareas aumentaban aproximadamente seis veces después de implementar Dreaming. La empresa de revisión de documentos médicos Wisedocs redujo su tiempo de revisión de documentos en un 50% utilizando Outcomes. Y Netflix ahora procesa registros de cientos de compilaciones simultáneamente mediante orquestación multiagente.
Estos anuncios llegan en un momento de extraordinario impulso para Anthropic. El director ejecutivo, Dario Amodei, reveló durante una charla informal en la conferencia que el crecimiento de la compañía ha superado incluso sus propias proyecciones internas más optimistas.
En el primer trimestre de 2026, Anthropic experimentó un crecimiento anualizado en ingresos y uso que, según Amodei, se multiplicó por 80, superando con creces el crecimiento anual de 10 veces que la empresa había previsto. El volumen de API en la plataforma Claude se ha multiplicado por casi 70 con respecto al año anterior, y el desarrollador promedio que utiliza Claude Code ahora dedica 20 horas semanales a trabajar con la herramienta.
«Intentamos planificar muy bien para un mundo con un crecimiento de 10 veces al año», dijo Amodei. «Y, sin embargo, vimos un crecimiento de 80 veces. Y esa es la razón por la que hemos tenido dificultades con la computación».
Una demostración en vivo mostró cómo los agentes de IA mejoraban de la noche a la mañana sin intervención humana
Durante la presentación principal, el equipo de Anthropic demostró en vivo las tres funciones utilizando una empresa emergente aeroespacial ficticia llamada «Lumara», que necesitaba aterrizar drones de forma autónoma en la Luna para la extracción de recursos. El equipo configuró un sistema multiagente con tres especialistas: un agente comandante responsable del éxito general de la misión, un agente detector que identificaba lugares de aterrizaje de alta calidad y un agente navegante que gestionaba el vuelo y el aterrizaje seguros de los drones. Además, definieron una rúbrica de éxito que requería aterrizajes suaves, terreno despejado y suficientes reservas de combustible para el viaje de regreso a la Tierra.
Una simulación inicial en seis hipotéticos lugares de aterrizaje arrojó resultados sólidos, pero imperfectos. Para mejorar, los presentadores activaron una sesión de simulación directamente desde la consola de desarrollador de Claude. Durante la noche, el agente de simulación revisó todas las sesiones anteriores y elaboró un manual de descenso detallado: un conjunto completo de heurísticas basadas en patrones de múltiples ejecuciones de misiones. Cuando el equipo ejecutó una nueva simulación a la mañana siguiente con el manual de simulación en memoria, los resultados mejoraron significativamente en los lugares que anteriormente habían tenido un rendimiento inferior.
«Lo único que teníamos que hacer era que Caitlin pulsara un botón», dijo Angela Jiang, jefa de producto de la plataforma Claude, refiriéndose a su compañera en el escenario. «Todo un sueño».
La demostración ilustró cómo se combinan las tres funciones en la práctica. La orquestación multiagente dividió la tarea compleja entre especialistas con ventanas de contexto independientes. Los resultados proporcionaron la rúbrica con la que un agente evaluador independiente analizó cada ejecución. Y la simulación extrajo lecciones de esas ejecuciones para mejorar el rendimiento futuro, conformando lo que Anthropic describe como un ciclo de mejora continua que no requiere intervención humana entre iteraciones.




