Tu Claude va a soñar esta noche, no lo molestes

marsbitPublicado a 2026-05-11Actualizado a 2026-05-11

Resumen

Anthropic ha presentado la función "Dreaming" (Soñar) para sus agentes de IA en la plataforma Managed Agents. Esta función, inspirada en conceptos humanos, procesa automáticamente registros históricos de sesiones para extraer patrones y optimizar futuras tareas, actuando como un mecanismo de aprendizaje y autocorrección basado en datos. La función se activa manualmente en Managed Agents, revisando hasta 100 sesiones para crear nuevos recuerdos. Otras plataformas como Hermes Agent y OpenClaw tienen características similares, donde OpenClaw simula etapas de sueño (ligero, REM, profundo) para consolidar información en memoria a largo plazo. "Dreaming" está ligado a la gestión de la memoria (contexto) en IA. Dado que las ventanas de contexto son limitadas y costosas computacionalmente, esta función ayuda a priorizar y refinar información, similar a cómo el cerebro humano consolida recuerdos durante el sueño. Compañías como Subquadratic buscan ampliar estos límites con modelos de contexto masivo. El uso de términos antropomórficos como "soñar", "pensar" o "recordar" por parte de las empresas de IA busca hacer la tecnología más relatable, pero también difumina la línea entre herramienta y entidad, desplazando potencialmente la responsabilidad de los desarrolladores al "comportamiento" del agente.

¿Sueñan los androides? ¿Y si sueñan, sueñan con ovejas eléctricas?

Captura de pantalla de la película 'Blade Runner'

En 1968, cuando Philip K. Dick, el autor de la novela que inspiró la película de ciencia ficción 'Blade Runner', escribió esta pregunta abstracta y adelantada a su tiempo en su máquina de escribir, probablemente no imaginó que, más de medio siglo después, los gigantes tecnológicos de Silicon Valley darían una respuesta seria.

Sí, no solo pueden soñar con ovejas eléctricas, sino que también pueden visualizar esos sueños.

Ayer, en su conferencia para desarrolladores en San Francisco, Anthropic presentó una serie de nuevas funciones para su plataforma de creación de agentes Managed Agents: expansión de memoria, resultados de salida, colaboración entre múltiples agentes, y "Dreaming" (Soñar).

Según las propias palabras de Anthropic, "memory (memoria) y dreaming (soñar) forman juntos un sistema de memoria de agente robusto y capaz de automejorarse".

Primero soñar, luego memoria. Quien no esté muy familiarizado con el campo de la IA probablemente se llenará de dudas: ¿desde cuándo estas palabras, que pertenecen a los humanos, pueden aplicarse tan fácilmente a la IA?

Ya en 2024, cuando OpenAI lanzó la serie o1, utilizó las palabras "una serie de modelos de IA diseñados para pensar más tiempo antes de responder". "Pensar" se usó de manera tan natural que nadie se detuvo a preguntar: ¿por qué un programa que predice estadísticamente el siguiente token puede llamarse "pensar"?

Luego vinieron reasoning (razonar), memory (memoria), reflection (reflexionar), Imagining (imaginar), y una por una, estas acciones propias de los humanos fueron presentadas en las conferencias de lanzamiento de productos.

Captura de pantalla de la película 'Paprika', que explora los sueños.

Se podría explicar "pensar" como una metáfora, "memoria" casi como una extensión del lenguaje técnico, pero "soñar" ya es demasiado. La filosofía, la historia y la literatura no lo han logrado en miles de años, pero las empresas de IA pueden decir directamente: no solo hemos creado máquinas que piensan, sino también máquinas que sueñan.

¿Qué es soñar? ¿Es que, además de "soñar", no existe ningún término de ingeniería que describa esto con precisión?

Los sueños de la IA también cuestan dinero

Ya durante la filtración del código de Claude Code, algunos usuarios descubrieron que Anthropic estaba preparando una función llamada Auto Dreaming. En ese momento, todos se preguntaban: ¿Acaso la IA también necesita dormir como nosotros los humanos, descansar lo suficiente para volverse más concentrada e inteligente?

Sin embargo, al entender el funcionamiento actual de los AI Agents, uno se da cuenta de que el llamado "soñar" es, en esencia, solo un procesamiento por lotes y fuera de línea de registros automatizados.

Los AI Agents actuales son buenos para completar tareas complejas de larga duración. Por ejemplo, "investiga los últimos informes financieros de estos cinco competidores y organízalos en una tabla". En este proceso, el Agent necesita saltar entre diferentes páginas web, leer múltiples documentos, utilizar diferentes herramientas e incluso puede encontrarse con mecanismos anti-rastreo y tener que reintentar.

Al finalizar esta larga serie de tareas en línea, el sistema del Agent deja una gran cantidad de registros de ejecución.

Imagen generada por IA.

La función "Dreaming" de Anthropic es hacer que el Agent, en su tiempo de inactividad, reanalice estos registros históricos. Busca patrones, como descubrir que "cada vez que aparece esta ventana emergente, hacer clic en la esquina superior derecha la cierra", optimizando así la ruta de operación para la próxima vez.

La "memoria" se encarga de capturar lo aprendido durante el trabajo, mientras que "soñar" refina esos recuerdos entre sesiones y los comparte entre diferentes Agents.

En pocas palabras, se trata de un mecanismo de aprendizaje por refuerzo y autocorrección basado en datos históricos.

Introducción a los sueños: https://platform.claude.com/docs/en/managed-agents/dreams

La actualización de Dreams en Managed Agents en esta conferencia para desarrolladores es una tarea de procesamiento en segundo plano que debemos activar manualmente. Claude puede leer hasta 100 sesiones de historial de conversación a la vez y producir un nuevo conjunto de recuerdos para que los revisemos y decidamos si queremos usarlos.

En cambio, el AutoDream que ya se implementó en silencio en Claude Code, revisa en segundo plano después de cada ronda de conversación con el Agent si "debería soñar". Por defecto, se ejecuta una vez cada 24 horas.

Funciones similares a soñar también las tiene Hermes Agent. Hermes Agent se especializa en el autoaprendizaje y la evolución. No solo admite la extracción automática de experiencias de tareas pasadas para colocarlas en un archivo de memoria.

Una de sus funciones, llamada Curator, puede incluso organizar automáticamente estas guías operativas refinadas en Habilidades (Skills).

Estas Habilidades se califican, se fusionan las duplicadas, se archivan automáticamente las que no se usan durante mucho tiempo e incluso tienen un ciclo de vida como active, stale, archived. También podemos "fijar" las Habilidades importantes para evitar que el sistema las elimine automáticamente.

OpenClaw, en sus últimas actualizaciones, también agregó mecanismos relacionados, como memoria persistente entre conversaciones, programación periódica de tareas, ejecución aislada de sub-agentes y una función directamente llamada Dreaming (soñar).

Sueños de OpenClaw: https://docs.openclaw.ai/concepts/dreaming

En el mecanismo de sueño de OpenClaw, resume la formación del sueño en tres etapas: ligero, REM (movimiento ocular rápido) y profundo. Las dos primeras se encargan de organizar, reflexionar y sintetizar temas; la etapa profunda es la que realmente escribe el contenido en la memoria a largo plazo MEMORY.md.

La consolidación en la etapa de sueño profundo la determinan 6 señales ponderadas para decidir si se debe escribir en la memoria a largo plazo. Estas seis señales incluyen frecuencia, relevancia, diversidad de consultas, actualidad, repetición entre días y riqueza conceptual.

Imagen generada por IA.

Escribir en la memoria a largo plazo genera dos archivos: un archivo de estado orientado a la máquina, ubicado en memory/.dreams/; y otro registro legible para el usuario, que se escribe en DREAMS.md y en los informes generados por etapa.

Además, Dreaming puede ejecutarse automáticamente en intervalos programados. Por defecto, se ejecuta un flujo completo todos los días a las 3 a.m., en el orden ligero → REM → profundo.

Además de la salida de los sueños, OpenClaw mantiene un documento llamado Dream Diary (Diario de Sueños). El sistema genera automáticamente un "diario de sueños" que registra el proceso de organización de la memoria de manera narrativa, enfatizando la explicabilidad y la posibilidad de revisión, en lugar de ser una caja negra que escribe en la base.

En neurociencia, existe una comprensión muy clásica: la información que obtenemos durante el día ingresa primero en un sistema de almacenamiento más temporal. Durante el sueño, el cerebro repite, consolida y limpia esa información, reteniendo lo importante y descartando lo que carece de sentido.

Imagen generada por IA.

No recordamos el color de cada coche que vimos de camino al trabajo ayer, pero recordamos cómo llegar a la oficina.

Estos sueños suenan muy parecidos a los nuestros. Si hay que buscar alguna diferencia, probablemente sea que cuando Claude sueña, sigue consumiendo nuestros Tokens.

Pero ni Anthropic ni OpenClaw eligieron llamarlo "optimización basada en sesiones" (session-based optimization) o "ajuste posterior a la tarea" (post-task tuning), nombres más orientados a la ingeniería.

Después de todo, cuando esos nombres complejos se convierten directamente en "soñar", lo que percibimos ya no es una función de software, sino algo más parecido a una "vida digital con actividad interior".

La memoria de la IA es un contexto fragmentado

Hablando de "soñar", no se puede dejar de mencionar su condición previa: la memoria (Memory).

En el pasado reciente, las palabras de moda en el círculo de la IA han pasado de la ingeniería de prompts a la ingeniería de contexto, ingeniería de habilidades (Skill), ingeniería de arneses (Harness). Pero sin importar cómo cambien, actualmente la más valiosa sigue siendo la ingeniería de contexto.

El prompt del sistema, la entrada del usuario, el diálogo a corto plazo, la memoria a largo plazo, los documentos recuperados, la salida de las herramientas y habilidades invocadas, el estado actual del usuario: todas estas capas superpuestas constituyen el "contexto" que el agente realmente utiliza.

Hacer que el Agent recuerde más y almacene contenido más útil ha sido un desafío durante mucho tiempo.

El año pasado, Manus publicó un blog técnico sobre cómo optimizan la ingeniería de contexto. Mencionaron definir la tasa de aciertos en la caché KV-Cache como uno de los indicadores únicos más importantes para los AI Agents en entornos de producción. También priorizaron el "enmascaramiento" en lugar de la "eliminación" a nivel de invocación de herramientas, y utilizaron el sistema de archivos como el contexto definitivo, entre otros métodos.

Para entender la llamada KV Cache (caché de clave-valor), podemos imaginar un modelo de lenguaje grande como una persona extremadamente obsesiva que solo puede leer una palabra a la vez.

Al procesar una oración, calcula un vector Key (clave) y un vector Value (valor) para cada token generado. Para no tener que recalcular todo desde cero cada vez, almacena estos pares de clave-valor (K, V). Esto es la KV Cache.

KV Cache (caché de clave-valor) es una técnica de aceleración de bajo nivel que los modelos de lenguaje grandes utilizan para "intercambiar espacio por tiempo" al generar texto. La caché permite que el modelo prediga la siguiente palabra sin tener que volver a calcular todas las palabras anteriores. Imagen generada por IA.

Mientras la conversación continúa, la KV Cache sigue guardándose. En general, ante modelos de lenguaje grandes con contextos de hasta 128k tokens, un modelo de 70B parámetros utilizando todo el contexto de 128k tokens puede consumir hasta 64 GB de memoria de solo la KV Cache.

Esta es la razón por la que la mayoría de los modelos actualmente tienen ventanas de contexto de, como máximo, millones de tokens.

Ayer, una nueva empresa llamada Subquadratic, que obtuvo 29 millones de dólares en financiación inicial, anunció en X su nuevo modelo SubQ, que se enfoca en contextos más largos.

SubQ afirma que puede admitir ventanas de contexto de hasta 12 millones de tokens, la ventana de contexto más grande entre todos los modelos de lenguaje grandes actuales.

Aunque aún no hay un artículo técnico o documentación del modelo, el video presentado menciona que la ruta tecnológica central de SubQ es cambiar de la "atención densa" del Transformer tradicional a una arquitectura de "escalado subcuadrático/lineal" con atención dispersa. Se espera que esta nueva arquitectura pueda resolver el problema del costo computacional explosivo con contextos más largos.

Los resultados de las pruebas que presentan son bastante agresivos: con 1 millón de tokens, la velocidad aumenta más de 50 veces y el costo se reduce más de 50 veces; con 12 millones de tokens, la demanda de potencia de cálculo puede reducirse casi 1000 veces en comparación con los modelos de vanguardia.

Y en el benchmark de contexto largo RULER 128K, Subquadratic afirma que SubQ logra un 95% de precisión con un costo de 8 dólares, en comparación con Claude Opus que tiene un 94% de precisión y un costo de aproximadamente 2600 dólares, lo que representa una reducción de costos de aproximadamente 300 veces.

O se amplía la ventana de contexto, o se hace que el modelo aprenda a "soñar" y descarte algunas cosas por sí mismo.

Por eso, Anthropic y otros productos de Agent ahora deben lanzar "Dreaming". En un contexto limitado por la ventana de tokens, una IA más inteligente no puede depender solo de meter más contenido; necesita ser selectiva.

Admitir que la máquina es solo una máquina es más difícil de lo que se piensa

Entendiendo los mecanismos de sueño y memoria de la IA, quizás podamos comprender su relación con las actividades humanas.

Pero al juntar todas estas palabras que las empresas de IA han creado para las máquinas - thinking (pensar) de OpenAI, memory (memoria) y hallucination (alucinación) de uso común en la industria, dreaming (soñar) de Anthropic en esta ocasión, y las virtudes y sabiduría de la constitución de Anthropic -

Podemos ver que las empresas de IA no solo venden productos; están reasignando la propiedad de los conceptos dentro de la palabra "persona". Cada vez que se apropian de una palabra, el límite entre la máquina y el ser humano se desdibuja un poco más.

El lenguaje moldea las expectativas, las expectativas moldean la tolerancia, y la tolerancia determina cuánto estamos dispuestos a confiarle. Es una cadena larga, pero su punto de partida son esas palabras inofensivas en las conferencias de lanzamiento.

Una influencia más sutil es la distribución de responsabilidades. Cuando una herramienta se describe como una entidad con "pensamiento", "memoria" y "valores", al surgir problemas, tendemos a considerarla como un "sujeto de acción" independiente al que hay que hacer responsable; es esa IA la que necesita ser "educada", "depurada" o "calibrada".

Pero lo que realmente se debería cuestionar es la empresa que implementó este programa en nuestro flujo de trabajo y el equipo de productos que acuñó la palabra "dreaming". Cambian las palabras, y las personas en el "banquillo de los acusados" también cambian.

Y al ver una máquina que "piensa", "recuerda" y ahora también "sueña", empezamos a creer inconscientemente que hay algo dentro. Porque admitir que solo es una máquina hace que la sensación de "estoy conversando con un ser que piensa" se desvanezca, volviendo a una fría relación instrumental.

Introducción a la función de soñar despierto | Imagen generada por IA.

Ya puedo imaginar lo siguiente: si Dreaming (soñar) es procesar contenido pasado, las próximas empresas de IA lanzarán Daydreaming (soñar despierto), para simular el futuro.

La introducción dirá que soñar despierto o divagar permite al Agent, en estado activo, utilizar una pequeña parte de su capacidad de cálculo libre para realizar generaciones exploratorias combinadas con el proyecto en curso, preparándose para posibles tareas futuras.

Este artículo proviene del WeChat Official Account "APPSO", autor: APPSO, descubriendo los productos del mañana.

Preguntas relacionadas

Q¿Qué es la función 'Dreaming' (soñar) de los agentes de IA, como el anunciado por Anthropic?

ALa función 'Dreaming' (soñar) de los agentes de IA es un proceso de procesamiento por lotes y automejora fuera de línea. Analiza automáticamente los registros de sesiones de tareas anteriores para identificar patrones, optimizar rutas de operación futuras y consolidar aprendizajes en 'memorias' reutilizables. Esencialmente, es un mecanismo de aprendizaje por refuerzo y autocorrección basado en datos históricos.

Q¿Cómo se relacionan los conceptos de 'memoria' y 'sueño' en el contexto de los agentes de IA según el artículo?

ASegún el artículo, la 'memoria' (memory) y el 'sueño' (dreaming) forman juntos un sistema robusto de memoria para agentes de IA que permite la automejora. La memoria captura lo aprendido durante las tareas en tiempo real, mientras que el proceso de 'soñar' refina y consolida esas memorias entre sesiones, extrayendo lecciones generalizables y descartando información irrelevante para optimizar el rendimiento futuro.

Q¿Cuál es una crítica principal del artículo sobre el uso de términos como 'pensar', 'recordar' o 'soñar' para describir funciones de IA?

ALa crítica principal es que el uso antropomórfico de términos como 'pensar', 'recordar' o 'soñar' para funciones técnicas de IA desdibuja la frontera entre máquinas y humanos. Este lenguaje moldea las expectativas de los usuarios, puede redistribuir la responsabilidad en caso de errores (de la empresa al 'agente') y crea una ilusión de interacción con una entidad consciente, en lugar de una herramienta programada.

Q¿Qué problema técnico fundamental intentan abordar funciones como 'Dreaming' o el desarrollo de ventanas de contexto más largas?

AIntentan abordar la limitación fundamental de la longitud del contexto en los modelos de lenguaje grandes. Las ventanas de contexto (como 128K o 1M tokens) y su caché KV asociada consumen enormes recursos computacionales y de memoria. 'Dreaming' optimiza selectivamente lo que se retiene, mientras que arquitecturas como la de Subquadratic buscan hacer que contextos ultralargos (ej. 12M tokens) sean computacionalmente viables.

QAdemás de Anthropic, ¿qué otros proyectos o empresas menciona el artículo que implementan mecanismos similares a 'soñar' para sus agentes de IA?

AEl artículo menciona a Hermes Agent, con su función 'Curator' que organiza aprendizajes en 'Skills' con ciclo de vida, y a OpenClaw, que tiene una función llamada 'Dreaming' que simula fases de sueño ligero, REM y profundo para consolidar recuerdos en un archivo de memoria a largo plazo y generar un 'Diario de Sueños' (Dream Diary) narrativo para los usuarios.

Lecturas Relacionadas

MY Group completa el despliegue de la primera acción de Web4.0 en el mercado, la SEC divulga oficialmente el anuncio Form 8-K

El 13 de mayo de 2026, la Comisión de Valores de EE. UU. (SEC) hizo pública la presentación del Formulario 8-K de MY Tech Group. El informe confirma el nombramiento del Sr. Zhang Dingwen como Director Ejecutivo (CEO) y director ejecutivo de la junta, marcando una nueva fase en la estrategia de capital global de la compañía. El Formulario 8-K, utilizado para divulgar eventos corporativos importantes, coincide con otros movimientos estratégicos en curso, como una actualización de la marca global, una optimización de la estructura corporativa y un cambio futuro de su símbolo bursátil (Ticker Symbol). Los analistas interpretan estos pasos como una señal de una aceleración en la estrategia de internacionalización y capitalización. MY Group está centrando la atención del mercado con su propuesta de ecosistema "Web4.0", que busca integrar capacidades centrales como: entrada de tráfico social, sistema de pagos global, infraestructura de cadena de bloques, ecosistema de intercambio de activos digitales y un sistema financiero inteligente con IA. El objetivo es fusionar la escala de usuarios de Web2 con la arquitectura de activos de Web3 y las capacidades financieras de IA. Con la finalización de la renovación de la gerencia, el inicio de la estrategia de marca global, el próximo cambio de ticker y el avance del concepto Web4.0, MY Group se posiciona como una empresa de plataforma tecnológica de próxima generación para observar de cerca en los mercados de capitales globales.

marsbitHace 7 hora(s)

MY Group completa el despliegue de la primera acción de Web4.0 en el mercado, la SEC divulga oficialmente el anuncio Form 8-K

marsbitHace 7 hora(s)

Trading

Spot
Futuros
活动图片