Lo que vemos semana a semana
Llevamos más de dos años implementando agentes de IA en empresas de LATAM. Algunos proyectos van directo a producción en semanas. Otros se atascan durante meses. La diferencia casi siempre se reduce a los mismos errores.
Error 1: Empezar con el modelo equivocado
El impulso de usar el modelo más nuevo y caro casi siempre es un error al inicio. La mayoría de los casos de uso de agentes empresariales funcionan igual de bien con Claude Haiku o GPT-4o mini — a un costo 10x menor. El modelo más potente se reserva para las decisiones de alto stakes dentro del workflow.
Error 2: No tener memoria entre sesiones
Un agente sin memoria es un agente que empieza de cero cada vez que un usuario escribe. Para aplicaciones de atención al cliente, esto significa que el cliente tiene que repetir su contexto en cada mensaje. La solución: almacena el historial de conversación en una base de datos (Supabase, Redis) e inyéctalo en el system prompt.
Error 3: Tool calling sin manejo de errores
Cuando le das herramientas a un agente (buscar en base de datos, enviar email, actualizar CRM), el 20% de las llamadas fallarán por algún motivo. Un agente sin manejo de errores simplemente se rompe o inventa una respuesta. Implementa reintentos, mensajes de error descriptivos, y escalado a humano cuando el agente no pueda completar la tarea.
Error 4: Prompt demasiado largo
El system prompt de 5,000 tokens lleno de instrucciones es tentador. En la práctica, el modelo prioriza las instrucciones al inicio y al final, e ignora el contenido del medio. Mantén el system prompt bajo 1,000 tokens para las instrucciones core, y usa RAG para inyectar contexto específico según la consulta.
Error 5: No medir
¿Cómo sabes si tu agente está funcionando? La mayoría de los equipos que vemos no tienen ninguna métrica. Define desde el día uno: tasa de resolución sin escalar a humano, satisfacción del usuario (thumbs up/down), tiempo promedio de respuesta, y costo por conversación.