Blog destacado

Agentes + Habilidades: La nueva arquitectura para la IA escalable

29/01/2026

Agentes + Habilidades: La nueva arquitectura para la IA escalable

Por AICC | Actualizado: enero de 2026 | Arquitectura de IA
Ilustración conceptual de agentes de IA frente a habilidades

Antes de que la expectación en torno a la Protocolo de Contexto de Modelo (MCP) Cuando ya había tenido la oportunidad de calmarse, Anthropic sacó otro éxito de la manga: Habilidades del agenteEste desarrollo nos obliga a repensar la arquitectura fundamental de los sistemas de IA.

Estamos superando la simple dicotomía de "¿es un agente o una herramienta?" para avanzar hacia una comprensión más matizada. Los agentes son entidades con plena capacidad de decisión, con indicaciones del sistema, acceso a herramientas, modelos de respaldo (Claude, ChatGPT, etc.) y bucles que les permiten orquestar flujos de trabajo y gestionar el estado. En contraste, las nuevas Habilidades de Agente son conjuntos modulares y declarativos de conocimientos especializados: conocimiento procedimental organizado y empaquetado en unidades reutilizables que los agentes cargan progresivamente según sea necesario.

Esto plantea una pregunta arquitectónica interesante y fundamental: ¿Qué debería ser un agente y qué debería ser una habilidad? La elección tiene implicaciones reales para la gestión del alcance, la fiabilidad de la ventana de contexto, la extensibilidad y la evaluabilidad. La respuesta no es elegir uno sobre el otro. Es agentes con habilidades.

Por qué los agentes no pueden escalar solo mediante indicaciones

Los primeros sistemas basados ​​en agentes se toparon con obstáculos previsibles. Los equipos crearon agentes especializados para cada caso de uso: un agente de atención al cliente, un agente de programación, un agente de investigación. Cuando estos agentes necesitaban nuevas funcionalidades, los desarrolladores actualizaban las indicaciones del sistema o creaban un agente completamente nuevo. Esto funciona para tareas sencillas, pero rápidamente se vuelve inmanejable a gran escala.

El patrón se repetía en todas las organizaciones: un nuevo caso límite requería modificaciones inmediatas, que a veces solucionaban el problema, pero a menudo provocaban regresiones en otros ámbitos. Los agentes carecían de mecanismos para aprender de la ejecución o transferir conocimientos entre contextos. Las ventanas de contexto se saturaban con instrucciones cada vez más complejas o contradictorias, lo que provocaba que los agentes se distrajeran, se confundieran o fueran incapaces de razonar sobre la información contradictoria.

En general, solíamos pensar que los agentes se verían muy diferentes en distintos dominios según sus indicaciones y herramientas. Pero la relación subyacente entre el modelo y el agente es, en realidad, más universal de lo que creíamos. Esta constatación sugirió un modelo diferente: un agente de propósito general equipado con una biblioteca de capacidades especializadas.

¿Por qué los agentes necesitan habilidades?

Las habilidades nos permiten perfeccionar el conocimiento del dominio sin necesidad de realizar cambios arquitectónicos. Son principalmente declarativas, lo que significa que los expertos en la materia pueden aportar funcionalidades sin modificar la lógica del agente. Un equipo de seguridad puede integrar sus flujos de trabajo de cumplimiento en una habilidad. Un equipo de ingeniería de datos puede codificar sus mejores prácticas de ETL. Estas contribuciones no requieren modificar el sistema central del agente ni su bucle de toma de decisiones.

Cuando los agentes se enfrentan a nuevos escenarios, las habilidades proporcionan un límite de responsabilidad claro. Los equipos pueden actualizar una habilidad para un dominio sin riesgo de regresiones en otro. Las habilidades se pueden versionar, probar de forma aislada y mejorar en función de la telemetría, todo ello sin la fragilidad de la ingeniería de mensajes del sistema.

Las habilidades permiten carga progresiva, que introduce recursos de forma incremental para ayudar a solucionar el problema de la sobrecarga de contexto. Cualquiera que utilice agentes probablemente haya experimentado lo que sucede cuando las ventanas de contexto se sobrecargan, y las investigaciones realizadas a lo largo de 2025 demostraron que la sobrecarga de las ventanas de contexto provoca modos de fallo sorprendentes.

La carga progresiva soluciona este problema: durante la ejecución, los agentes solo ven los metadatos de las habilidades (nombre y descripción). El contenido completo se carga únicamente cuando el agente determina que una habilidad es relevante para la tarea actual. Esto significa que la cantidad de contexto incluido en las habilidades puede ser prácticamente ilimitada sin comprometer la capacidad de razonamiento del agente.

Cuándo crear un agente o una habilidad

Entonces, ¿cómo decidir? Utilice la siguiente comparación para guiar sus decisiones arquitectónicas:

Crea un agente cuando lo necesites... Desarrolla una habilidad cuando la necesites...
Orquestación completa del flujo de trabajo con árboles de decisión de múltiples pasos. Conocimientos procedimentales reutilizables y aplicables en diversos contextos.
Gestión estatal en operaciones complejas. Aportaciones de conocimientos especializados del sector por parte de personas que no son desarrolladores.
Control de calidad mediante evaluaciones sistemáticas. Protección de la ventana de contexto mediante carga selectiva.
Límites de alcance que impiden el uso indebido. Capacidades que pueden evolucionar de forma independiente.

Muchos agentes existentes —mensajes estructurados con acceso a herramientas— pueden convertirse en habilidades con cambios mínimos. Sin embargo, algunos casos de uso requieren realmente el control, la gestión del alcance y la capacidad de evaluación que ofrecen los agentes completos.

Un ejemplo real: Migración a ClickHouse

Nos enfrentamos a esta misma decisión arquitectónica durante la construcción. clickhouse.build, un asistente de codificación basado en agentes que ayuda a los desarrolladores a migrar cargas de trabajo analíticas de Postgres a ClickHouse. Nuestra interfaz de línea de comandos (CLI) inicialmente proporcionaba cuatro agentes especializados: un escáner que identifica consultas analíticas en bases de código, un migrador de datos para configurar ClickPipes, un migrador de código que agrega interfaces de ClickHouse manteniendo la compatibilidad con versiones anteriores y un agente de control de calidad para validar los cambios.

El alcance se limitó deliberadamente a consultas de PostgreSQL y bases de código TypeScript. Esta especificidad mejoró el rendimiento de los agentes, pero limitó su aplicabilidad. Cuando Anthropic lanzó Agent Skills en octubre de 2025, vimos la oportunidad de ampliar este alcance sin sacrificar la calidad.

Al introducir las Habilidades, ahora podemos admitir otras fuentes de procesamiento de transacciones en línea (OLTP), como MySQL y MongoDB, bases de código Python y Java, y flujos de trabajo de control de calidad más flexibles sin necesidad de reescribir nuestros agentes principales. Los responsables del mantenimiento de los clientes de lenguaje pueden desarrollar Habilidades para sus dominios (Golang, Java, Python) sin modificar la lógica de orquestación de los agentes. Podemos crear evaluaciones en torno a habilidades específicas y mejorarlas de forma independiente.

Los agentes necesitan una licencia para ejercer sus habilidades.

El futuro de agente de IA No se trata de elegir entre agentes y habilidades. Se trata de agentes equipados con las habilidades adecuadas en el momento oportuno; agentes con una «licencia para ejercer habilidades», por así decirlo. Los agentes coordinan, mantienen el alcance y garantizan la calidad mediante evaluaciones. Las habilidades integran la experiencia, protegen las ventanas de contexto y permiten las contribuciones de expertos en el dominio.

Esta arquitectura ya está transformando sistemas de producción como clickhouse.build, y con la aparición de habilidades como estándar abierto junto con MCP, está posicionada para convertirse en la forma predeterminada de construir sistemas de IA escalables y fáciles de mantener.

Más de 300 modelos de IA para
OpenClaw y agentes de IA

Ahorre un 20% en costos