Llevas meses leyendo sobre agentes de IA. Que si el ejército de agentes. Que si la empresa autónoma. Que si el futuro ya está aquí.
Pero cuando te sientas delante de tu empresa real, con tu equipo real y tus clientes reales, la pregunta siempre es la misma: vale, pero dónde lo pongo.
Porque una cosa es ver una demo y otra muy distinta es saber en qué departamento, en qué proceso, con qué herramienta y resolviendo qué problema concreto vas a colocar cada agente.
Este artículo es ese mapa. No desde la teoría. Desde la producción.
Centralita virtual inteligente:
un agente de voz por departamento
No es un IVR con "pulse 1 para ventas". Es un agente que entiende, cualifica y resuelve.
Olvídate del menú clásico. El "pulse 1 para ventas, pulse 2 para soporte". Eso ya no es suficiente.
Lo que montamos nosotras es un agente de voz con IA en cada departamento con una la Centralita Virtual (siempre que el cliente lo necesite). Cada agente tiene su propio cerebro, sus propias reglas, su propia personalidad. El agente de ventas cualifica, agenda citas y transfiere. El de soporte técnico busca en la base de conocimiento y resuelve incidencias. El de facturación consulta estados de cuenta y gestiona reclamaciones.
Tenemos a varios agentes de voz creados con IA trabajando, en producción desde hace meses. Atiende cada llamada entrante, saluda, detecta si el contacto es cliente o no, y actúa en consecuencia. Si es cliente, lo transfiere al departamento correcto. Si no lo es, lo cualifica, captura nombre, email y teléfono, y le agenda una cita con el equipo comercial.
El detalle que marca la diferencia: cada agente tiene su propio diccionario de pronunciación. Si vendes productos técnicos, el agente tiene que pronunciar bien SIP, VoIP, WebRTC, los nombres de tus clientes, los nombres de tu equipo. Nuestro diccionario tiene más de 70 palabras configuradas.
Retell AI (agente de voz) + ElevenLabs (voz custom) + Gemini (LLM) + telefonía IP de netelip + N8N (automatización) + Cal.com (agenda de citas)
Centro de ayuda con RAG:
un chatbot que no inventa
Le falta contexto. Dáselo con un RAG y las alucinaciones bajan un 80%.
La mayoría de chatbots que ves en webs de empresas son un desastre. Responden con frases genéricas, inventan información, y el cliente acaba llamando por teléfono igualmente.
El problema no es el chatbot. Es que no tiene cerebro. No conoce tu producto, tus precios, tus procedimientos. Le falta contexto.
La solución es un RAG: Retrieval-Augmented Generation. En lugar de que el modelo de IA responda de memoria (y se invente cosas), primero busca en tu documentación real, recupera los fragmentos relevantes, y luego genera la respuesta basándose en esos datos concretos.
El resultado: un chatbot que responde con la información real de tu centro de ayuda, que cita la fuente, y que si no encuentra la respuesta, lo dice en lugar de inventar.
Precisión real de un RAG bien montado
La precisión llega al 90-97%. Y la reducción de alucinaciones respecto a un LLM sin contexto es del 40-80%. Esos números no son teóricos. Son de producción real con Google Vertex AI RAG Engine y Gemini.
Lo que tienes que meter en la base de conocimiento
Toda la documentación de producto: manuales, guías, FAQs. La base de precios actualizada: productos, planes, tarifas por país. Las guías técnicas: configuraciones, integraciones, APIs. Los procedimientos internos: cómo resolver las incidencias más comunes. Y el contenido de marketing: casos de uso, beneficios, comparativas.
Si la base de conocimiento está bien estructurada, el chatbot responde bien. Si le metes un PDF de 200 páginas sin organizar, va a alucinar. La calidad del RAG depende de la calidad de tus datos, no de la herramienta.
Google Vertex AI RAG Engine (motor RAG) o Supabase con pgvector (base vectorial) + API de Claude o Gemini (LLM) + N8N o código propio (automatización)
Panel privado del cliente:
un chatbot que conoce SUS datos
No responde preguntas generales. Responde preguntas sobre la cuenta del cliente que está preguntando.
Este es diferente al anterior. El chatbot del centro de ayuda responde preguntas generales. Este responde preguntas sobre el cliente específico que está preguntando.
"Cuánto debo este mes." "Qué servicios tengo activos." "Cuándo fue mi última incidencia." "Cuántos minutos he consumido."
El chatbot consulta la API de tu backend, recupera los datos del cliente autenticado, y responde con información personalizada. No es un chatbot genérico. Es un asistente que conoce la cuenta del cliente.
Dónde lo pones: dentro del panel privado, el área de cliente, la zona tras el login. Solo accesible para usuarios autenticados.
Seguridad: no es opcional
Este chatbot maneja datos sensibles. Necesita autenticación robusta, cifrado, y cumplimiento de LOPD/RGPD. No puedes dejar que un chatbot muestre facturas sin verificar quién pregunta. La autenticación OAuth/JWT es obligatoria.
API de tu backend + Claude API o Gemini API (LLM) + autenticación OAuth/JWT + N8N o código propio
Sistema de tickets con IA:
clasifica, prioriza, resuelve
El equipo humano deja de clasificar y se centra en resolver. Los tickets fáciles se resuelven solos.
Tu equipo de soporte pierde tiempo clasificando tickets. Leyendo el asunto, entendiendo el problema, asignando prioridad, derivando al departamento correcto. Eso lo hace la IA en segundos.
- El equipo lee cada ticket manualmente
- Clasifica por intuición, no por datos
- Los tickets fáciles consumen el mismo tiempo
- El contexto se pierde entre escalados
- 5 minutos por ticket solo para entenderlo
- La IA clasifica en segundos: tipo, urgencia, departamento
- Los tickets fáciles (40-60%) se resuelven solos
- Los difíciles llegan con resumen de contexto
- El equipo va directo a la solución
- El historial completo del cliente acompaña al ticket
No es que la IA sustituya al equipo. Es que el equipo deja de hacer trabajo de clasificación y se centra en resolver. Los tickets fáciles se resuelven solos. Los difíciles llegan masticados.
API de tu sistema de tickets (Zendesk, Freshdesk, Jira o propio) + Claude API o Gemini API (clasificación y respuesta) + RAG con tu base de conocimiento + N8N o código propio
Onboarding automatizado:
guía al nuevo cliente paso a paso
Los primeros 7 días son críticos. Si no configura el servicio, no lo usa. Si no lo usa, cancela.
El cliente acaba de contratar tu servicio. Tiene un email de bienvenida genérico, un PDF de 40 páginas que no va a leer, y cero idea de por dónde empezar.
Un onboarding con IA cambia eso completamente.
El agente (por voz o por chat) le pregunta al cliente qué ha contratado, adapta la guía a su caso concreto, y le va llevando paso a paso: primero configura esto, luego activa aquello, después comprueba que funciona. Si el cliente se atasca, el agente le explica con otras palabras. Si necesita soporte técnico, le conecta directamente.
No es un tutorial genérico. Es un acompañamiento personalizado que se adapta a lo que el cliente ha contratado y a su nivel técnico.
El impacto real
Los primeros 7 días de un cliente son críticos. Si no configura el servicio, no lo usa. Si no lo usa, cancela. Un onboarding que guía paso a paso reduce la tasa de abandono y acelera la activación. El cliente empieza a sacar valor del servicio desde el primer día.
N8N o código propio (activación del flujo) + Claude API o Gemini API (conversación adaptativa) + RAG con documentación de producto + CRM (para saber qué ha contratado el cliente)
Post-call intelligence:
lo que pasa después de cada llamada
La llamada termina. El comercial cuelga. Y todo lo que debería pasar después, pasa solo.
En la mayoría de empresas, el comercial apunta algo en un post-it (si apunta), actualiza el CRM cuando se acuerda (si se acuerda), y el cliente se queda esperando un email de seguimiento que a veces llega y a veces no.
Con post-call intelligence, todo eso pasa automáticamente:
Lo tenemos en producción con Elio y sus subordinados. Después de cada llamada, Gemini analiza la transcripción y extrae: nombre, email, teléfono, si se reservó cita, y un resumen completo. Todo se envía por webhook a N8N, que lo procesa y lo distribuye donde toca.
Retell AI o Gemini (análisis post-call) + N8N o código propio (distribución) + HubSpot o tu CRM (registro) + Gmail o tu email (envío al cliente)
GPTs personalizados por equipo:
el consultor interno de cada departamento
Una de las implementaciones más rápidas y con más impacto. Y casi nadie lo hace bien.
La idea: creas un GPT personalizado para cada equipo de tu empresa. Cada GPT tiene su propia base de conocimiento, sus propias instrucciones, y su propio rol.
El GPT del equipo técnico
Sabe de configuraciones SIP, integraciones con CRMs, resolución de incidencias frecuentes, y protocolos de escalado. Cuando un técnico tiene una duda, se lo pregunta al GPT en vez de buscar en 15 documentos diferentes.
El GPT de facturación
Conoce los planes de precios, las condiciones de cada tarifa, los descuentos vigentes, y los procedimientos de reclamación. Cuando un cliente pregunta por su factura, el equipo consulta el GPT y tiene la respuesta en segundos.
El GPT de ventas
Tiene los argumentarios, las comparativas con la competencia, las objeciones frecuentes y cómo responderlas, y los casos de uso por sector. El comercial prepara su llamada consultando al GPT.
La parte que mola
Puedes compartir el enlace del GPT con clientes o contactos para que resuelvan sus dudas directamente. Un cliente técnico puede consultar el GPT de soporte sin necesidad de abrir un ticket. Un distribuidor puede consultar el GPT de producto para preparar sus propias propuestas.
El truco está en la base de conocimiento. Un GPT sin datos específicos es un chatbot genérico. Un GPT alimentado por tu RAG con documentación real es un consultor que sabe tanto como tu mejor empleado.
OpenAI GPTs con Actions o Claude API + base de conocimiento del RAG (Vertex AI o Supabase) + N8N o código propio para las Actions que necesiten consultar datos en tiempo real
El cerebro compartido:
cómo se conectan todos los agentes
Si cada agente tiene su propia base de datos aislada, acabas con información duplicada, desactualizada y contradictoria.
Todos los agentes que hemos descrito hasta aquí comparten algo: necesitan una base de conocimiento. El agente de voz necesita saber de productos. El chatbot del centro de ayuda necesita la documentación. El GPT de ventas necesita los argumentarios. El sistema de tickets necesita los procedimientos.
La solución: un cerebro compartido. Una sola base de conocimiento que alimenta a todos los agentes.
Cómo se estructura
Un RAG centralizado con toda la documentación de la empresa, organizado por categorías: producto, técnico, comercial, legal. Cada agente consulta el mismo RAG pero con un prompt de sistema diferente que define su rol y su tono. La automatización (N8N o código propio) conecta cada canal de entrada con el RAG y devuelve la respuesta al canal correcto.
Supervisión humana, no piloto automático
Todo esto funciona sin un orquestador automático. Cada agente está supervisado por el equipo humano. N8N o la automatización con código propio hace de router, pero las decisiones importantes las toman las personas. El orquestador automático llegará cuando cada pieza esté validada y el equipo confíe en el sistema.
Google Vertex AI RAG Engine (motor RAG y base vectorial) + API de Claude o Gemini o ChatGPT (LLM) + N8N o automatización con código propio (conexión entre canales y RAG) + Supabase (base vectorial alternativa)
Crear tu avatar con IA
para redes sociales
Esto no es un agente de empresa. Es lo que estamos probando en nuestros ratos libres para crear contenido.
La idea: crear vídeos con un avatar de IA que se parezca a ti, que hable con tu voz clonada, y que puedas publicar en Instagram, LinkedIn o YouTube sin tener que grabarte cada vez.
El workflow
Escribes el guion (o lo generas con IA y lo refinas). Generas las imágenes con herramientas de generación de imagen IA. Creas la voz en off con tu voz clonada. Aplicas lip sync para que el avatar mueva los labios de forma natural. Editas el vídeo final con música, subtítulos y transiciones. Escalas la calidad si hace falta. Publicas.
Herramientas que estamos probando
Para el guion e ideas: Claude, ChatGPT, Gemini. Para imágenes: Midjourney, Flux, Ideogram, Adobe Firefly. Para voz: ElevenLabs con clon de voz. Para vídeo: Runway ML, Google VEO, Kling. Para lip sync y avatares: HeyGen, D-ID, Runway Act 2. Para escalado: Topaz, Magnific, Krea. Para edición: CapCut, DaVinci Resolve. Para subtítulos: Veed, Submagic. Para música: Suno, Soundful. Para grabación de pantalla: Loom.
Todavía no publicamos nada con esto. Estamos aprendiendo el workflow, probando qué funciona y qué no, y cuando tengamos un proceso que nos convenza, lo documentaremos aquí como siempre: desde las trincheras.
El stack completo
Todas las herramientas reales que usamos o estamos evaluando para cada caso.
Retell AI (plataforma de agentes) + ElevenLabs (voz custom) + Gemini 2.0 Flash (LLM para voz) + telefonía IP de netelip (infraestructura) + N8N Cloud (automatización) + Cal.com (agenda)
Gemini 3.1 Flash Live (Live API, gratis en preview, audio nativo, latencia mínima). Para demos y widgets de llamada en webs.
Google Vertex AI RAG Engine (motor RAG, precisión 90-97%) + Supabase con pgvector (alternativa gratuita de base vectorial)
Claude (contenido, código, voz de marca) + Gemini (voz y procesamiento rápido) + ChatGPT/GPTs (GPTs personalizados con Actions)
N8N Cloud (visual, webhooks) o automatización con código propio para flujos complejos
HubSpot (plan gratuito para empezar)
Midjourney + ElevenLabs + HeyGen + CapCut + Veed + Suno + Loom
Filosofía
Todo supervisado por humanos. Sin orquestador automático por ahora. Cada agente se valida en producción antes de dejarlo volar solo. Primero supervisamos nosotras, y cuando funciona, lo dejamos volar.