Blog destacado

Agentes + Habilidades: La nueva arquitectura para una IA escalable

29-01-2026

Agentes + Habilidades: La nueva arquitectura para una IA escalable

Por AICC | Actualizado: enero de 2026 | Arquitectura de IA
Ilustración conceptual de agentes de IA frente a habilidades

Antes de que se desatara el revuelo en torno a la Protocolo de Contexto Modelo (MCP) tuvo la oportunidad de calmarse, Anthropic sacó otro ganador de su sombrero: Habilidades del agenteEste desarrollo nos obliga a repensar la arquitectura fundamental de los sistemas de IA.

Estamos superando la simple dicotomía de "¿es un agente o una herramienta?" hacia una comprensión más matizada. Los agentes son entidades de toma de decisiones completas con indicaciones del sistema, acceso a herramientas, modelos de respaldo (Claude, ChatGPT, etc.) y bucles agénticos que les permiten orquestar flujos de trabajo y gestionar el estado. En cambio, las nuevas Habilidades de Agente son conjuntos de conocimientos modulares y declarativos: conocimiento procedimental organizado, empaquetado en unidades reutilizables que los agentes cargan progresivamente según sea necesario.

Esto plantea una pregunta arquitectónica interesante y fundamental: ¿Qué debería ser un agente y qué una habilidad? La elección tiene implicaciones reales para la gestión del alcance, la fiabilidad de la ventana de contexto, la extensibilidad y la evaluabilidad. La respuesta no es elegir uno sobre el otro. Es agentes con habilidades.

Por qué los agentes no pueden escalar solo con indicaciones

Los primeros sistemas de agentes se topaban con obstáculos predecibles. Los equipos creaban agentes especializados para cada caso de uso: un agente de atención al cliente, un agente de programación, un agente de investigación. Cuando estos agentes necesitaban nuevas capacidades, los desarrolladores actualizaban las indicaciones del sistema o creaban un agente completamente nuevo. Esto funciona para tareas sencillas, pero rápidamente se vuelve inmanejable a gran escala.

El patrón se repetía en todas las organizaciones: un nuevo caso extremo requería modificaciones rápidas, que a veces solucionaban el problema, pero a menudo causaban regresiones en otros ámbitos. Los agentes carecían de mecanismos para aprender de la ejecución o transferir conocimiento entre contextos. Las ventanas de contexto se saturaban con instrucciones o contradicciones cada vez más complejas, lo que provocaba que los agentes se distrajeran, se confundieran o fueran incapaces de razonar sobre información contradictoria.

Colectivamente, solíamos pensar que los agentes tendrían un aspecto muy diferente en distintos dominios según sus indicaciones y herramientas. Pero la relación subyacente entre el modelo y el agente es, en realidad, más universal de lo que pensábamos. Esta constatación sugirió un modelo diferente: un agente de propósito general equipado con una biblioteca de capacidades especializadas.

Por qué los agentes necesitan habilidades

Las habilidades nos permiten iterar sobre la experiencia del dominio sin realizar cambios en la arquitectura. Son principalmente declarativas, lo que significa que los expertos en la materia pueden aportar capacidades sin modificar la lógica del agente. Un equipo de seguridad puede integrar sus flujos de trabajo de cumplimiento en una habilidad. Un equipo de ingeniería de datos puede codificar sus mejores prácticas de ETL. Estas contribuciones no requieren modificar el sistema principal del agente ni el bucle de toma de decisiones.

Cuando los agentes se enfrentan a nuevos escenarios, las habilidades establecen un límite claro de responsabilidad. Los equipos pueden actualizar una habilidad para un dominio sin arriesgarse a regresiones en otro. Las habilidades pueden versionarse, probarse de forma aislada y mejorarse mediante telemetría, todo ello sin la fragilidad de la ingeniería de avisos del sistema.

Las habilidades permiten carga progresiva, que introduce recursos de forma incremental para ayudar a abordar la sobrecarga de contexto. Cualquiera que use agentes probablemente haya experimentado lo que sucede cuando las ventanas de contexto se sobrecargan, y las investigaciones realizadas a lo largo de 2025 demostraron que la sobrecarga de ventanas de contexto causa modos de fallo sorprendentes.

La carga progresiva soluciona este problema: en tiempo de ejecución, los agentes solo ven los metadatos de las habilidades (nombre y descripción). El contenido completo se carga solo cuando el agente determina que una habilidad es relevante para la tarea actual. Esto significa que la cantidad de contexto incluido en las habilidades puede ser prácticamente ilimitada sin comprometer la capacidad de razonamiento del agente.

Cuándo construir un agente o una habilidad

Entonces, ¿cómo decides? Usa la siguiente comparación para guiar tus decisiones arquitectónicas:

Crea un agente cuando lo necesites... Desarrolla una habilidad cuando la necesites...
Orquestación completa del flujo de trabajo con árboles de decisiones de varios pasos. Conocimiento procedimental reutilizable y aplicable en distintos contextos.
Gestión estatal en operaciones complejas. Contribuciones de experiencia en el dominio por parte de personas no desarrolladores.
Control de calidad mediante evaluaciones sistemáticas. Protección de la ventana de contexto mediante carga selectiva.
Límites de alcance que evitan el uso indebido. Capacidades que pueden evolucionar de forma independiente.

Muchos agentes existentes (instrucciones bien estructuradas con acceso a herramientas) probablemente puedan convertirse en habilidades con cambios mínimos. Sin embargo, algunos casos de uso realmente requieren el control, la gestión del alcance y la evaluabilidad que ofrecen los agentes completos.

Un ejemplo real: la migración de ClickHouse

Nos enfrentamos a esta misma decisión arquitectónica mientras construíamos clickhouse.construir, un asistente de codificación que ayuda a los desarrolladores a migrar cargas de trabajo analíticas de Postgres a ClickHouse. Nuestra interfaz de línea de comandos (CLI) inicialmente proporcionaba cuatro agentes especializados: un escáner que identifica consultas analíticas en bases de código, un migrador de datos para configurar ClickPipes, un migrador de código que añade interfaces de ClickHouse manteniendo la retrocompatibilidad, y un agente de control de calidad para validar cambios.

El alcance fue deliberadamente limitado: consultas Postgres y bases de código TypeScript. Esta especificidad mejoró el rendimiento de los agentes, pero limitó su aplicabilidad. Cuando Anthropic lanzó Agent Skills en octubre de 2025, vimos la oportunidad de expandirnos más allá de este alcance limitado sin sacrificar la calidad.

Con la introducción de Habilidades, ahora podemos admitir otras fuentes de procesamiento de transacciones en línea (OLTP), como MySQL y MongoDB, bases de código Python y Java, y flujos de trabajo de control de calidad más flexibles sin tener que reescribir nuestros agentes principales. Los encargados del mantenimiento de los clientes de lenguaje pueden desarrollar Habilidades para sus dominios (Golang, Java, Python) sin modificar la lógica de orquestación de los agentes. Podemos crear evaluaciones en torno a habilidades específicas y mejorarlas de forma aislada.

Los agentes necesitan una licencia para capacitarse

El futuro de Agente de IA No se trata de elegir entre agentes y habilidades. Se trata de agentes equipados con las habilidades adecuadas en el momento oportuno; agentes con una "licencia para la habilidad", por así decirlo. Los agentes orquestan, mantienen el alcance y garantizan la calidad mediante evaluaciones. Las habilidades agrupan la experiencia, protegen las ventanas de contexto y permiten las contribuciones de los expertos en el dominio.

Esta arquitectura ya está transformando sistemas de producción como clickhouse.build, y con habilidades que emergen como un estándar abierto junto con MCP, está posicionada para convertirse en la forma predeterminada de avanzar en la construcción de sistemas de IA escalables y mantenibles.