Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
LangChain Otorga a Agentes de IA Control Sobre Su Propia Gestión de Memoria
Terrill Dicki
12 de marzo de 2026 01:55
El SDK de Deep Agents de LangChain ahora permite que los modelos de IA decidan cuándo comprimir sus ventanas de contexto, reduciendo la intervención manual en flujos de trabajo de agentes de larga duración.
LangChain ha lanzado una actualización de su SDK de Deep Agents que otorga a los modelos de IA las claves para gestionar su propia memoria. La nueva función, anunciada el 11 de marzo de 2026, permite a los agentes activar de forma autónoma la compresión del contexto en lugar de depender de umbrales fijos de tokens o comandos manuales del usuario.
El cambio aborda un problema persistente en el desarrollo de agentes: las ventanas de contexto se llenan en momentos inconvenientes. Los sistemas actuales suelen comprimir la memoria cuando alcanzan el 85% del límite de contexto de un modelo, lo cual puede ocurrir en medio de una refactorización o durante una sesión de depuración compleja. Un mal momento provoca pérdida de contexto y fallos en los flujos de trabajo.
Por qué importa el momento
La compresión de contexto no es nueva. La técnica reemplaza mensajes antiguos con resúmenes condensados para mantener a los agentes dentro de sus límites de tokens. Pero cuándo comprimir importa tanto como si se comprime.
La implementación de LangChain identifica varios momentos óptimos para la compresión: en los límites de tareas cuando los usuarios cambian de enfoque, después de extraer conclusiones de grandes contextos de investigación, o antes de comenzar ediciones extensas en múltiples archivos. El agente aprende a limpiar antes de comenzar trabajos desordenados, en lugar de correr a comprimir cuando se queda sin espacio.
Investigaciones de Factory AI publicadas en diciembre de 2024 respaldan este enfoque. Su análisis encontró que la resumición estructurada—que preserva la continuidad del contexto en lugar de truncar agresivamente—fue fundamental para tareas complejas de agentes como la depuración. Los agentes que mantuvieron la estructura del flujo de trabajo superaron significativamente a los que usaron métodos de corte simple.
Implementación técnica
La herramienta se distribuye como middleware para el SDK de Deep Agents (Python) e integra con la CLI existente. Los desarrolladores la añaden a la configuración de su agente:
El sistema retiene el 10% del contexto disponible como mensajes recientes, mientras resume todo lo anterior. LangChain incorporó una red de seguridad: el historial completo de la conversación persiste en el sistema de archivos virtual del agente, permitiendo la recuperación si la compresión falla.
Las pruebas internas mostraron que los agentes son conservadores al activar la compresión. LangChain validó la función con su benchmark Terminal-bench-2 y suites de evaluación personalizadas usando trazas de LangSmith. Cuando los agentes comprimieron de forma autónoma, eligieron momentos que mejoraron la continuidad del flujo de trabajo de manera consistente.
El panorama general
Este lanzamiento refleja un cambio más amplio en la filosofía de arquitectura de agentes. LangChain hace referencia explícita a la “lección amarga” de Richard Sutton—la observación de que los métodos generales que aprovechan la computación tienden a superar a los enfoques ajustados manualmente con el tiempo.
En lugar de que los desarrolladores configuren meticulosamente cuándo los agentes deben gestionar la memoria, el marco delega esa decisión al propio modelo. Es una apuesta a que las capacidades de razonamiento en modelos como GPT-5.4 han alcanzado un nivel en el que pueden tomar estas decisiones operativas de manera confiable.
Para los desarrolladores que construyen agentes de larga duración o interactivos, la función es opcional a través del SDK y está disponible mediante el comando /compact en la CLI. El impacto práctico: menos interrupciones en los flujos de trabajo y menos necesidad de intervención del usuario en límites de contexto que, en realidad, la mayoría de los usuarios finales no entienden de todos modos.
Fuente de la imagen: Shutterstock