24 Octubre 2025 • IA Conversacional
VERDAD DESDE LAS TRINCHERAS

Por qué 2025 es el año de los sistemas de IA conversacional confiables
(no de agentes bonitos)

La diferencia brutal entre crear agentes que funcionan en demos y construir sistemas que funcionan en producción real.

He pasado 6 meses construyendo agentes de IA que "funcionaban perfectamente" en demos.

Tasa de éxito en producción real: 65%.

Después de meses depurando en las trincheras, aprendí algo brutal: hay una diferencia ABISMAL entre crear un agente en un entorno cerrado y construir un sistema que funciona en producción real.

Y quien te diga que su sistema de IA no tiene errores está mintiendo como un auténtico "Bellaco narcisista". Los errores están ahí. Siempre.

La diferencia es si tienes arquitectura para detectarlos, entenderlos y corregirlos sistemáticamente... o estás volando a ciegas.

65%
Tasa de éxito real en producción (después de meses de trabajo)

La diferencia que nadie explica

Agente en demo
(lo que todos hacen)

10-20 conversaciones de prueba cuidadosamente diseñadas

Casos de uso predefinidos y controlados

"¡Funciona! 95% de éxito en tests"

Demo impresionante para stakeholders

Realidad en
producción

50-65% de tasa de éxito real

Usuarios reales hacen cosas que NUNCA anticipaste

Edge cases por todos lados

Sin arquitectura para detectar qué falla

Sistema en producción
(lo que casi nadie logra)

Miles de conversaciones con usuarios impredecibles

Tiempo real: sin pause, sin "déjame revisar esto"

Consecuencias reales: dinero, reputación, compliance

Tiene que funcionar. Punto.

Los 3 problemas que explotan en producción

PROBLEMA 1

La variabilidad real destroza tus suposiciones

En tests controlados

"Quiero reservar una mesa para 4 personas el viernes a las 8pm"

"Necesito una reserva para el 15 de marzo, somos 6"

Conclusión: "¡El agente maneja reservas perfectamente!"
En producción real

"Mira, necesito una mesa pero no sé cuántos somos, entre 4 y 6, depende si viene mi cuñado..."

"Mesa pa dos el próximo martes tipo 9ish pero podemos llegar antes depende del tráfico"

[Ruido de fondo, música] "¿QUÉ? ¿MESA? SÍ, PARA MAÑANA, NO ESPERA..."

Tasa de éxito real: 65%

Un sistema real necesita manejar: ambigüedad, información incompleta, interrupciones y recuperarse de errores.

Esto no se resuelve con el "mejor prompt". Requiere arquitectura.

PROBLEMA 2

Los problemas técnicos fundamentales que ignoraste

Alucinaciones y falta de determinismo

Los LLMs son probabilísticos. Dale los mismos datos dos veces, obtienes respuestas diferentes.

Imagina un sistema de aprobación de transacciones. Primera vez: "Aprobado, monto dentro de límite". Segunda vez: "Requiere revisión adicional". ¿Cuál es correcta? No lo sabes.

Sin validación determinística, confiar 100% en un LLM es ruleta rusa.

En un sistema real necesitas:
LLM extrae información → Código determinístico valida que tiene sentido → Lógica de negocio verifica reglas enterprise → Confirmación explícita antes de ejecutar.

Chain of Thought no es explicabilidad real

Hay un paper devastador: "Chain of Thought is Not Explainability". Conclusión: Lo que el modelo "dice que está haciendo" NO es necesariamente lo que está haciendo.

Mi experiencia real: Tenía un agente que "explicaba" cómo calificaba leads. Cambié el orden de factores en el prompt y obtuve conclusiones diferentes. Estaba generando explicaciones post-hoc que sonaban lógicas pero eran inventadas.

Para compliance, necesitas trazabilidad REAL, no narrativa del modelo.

Ventanas de contexto grandes no mejoran resultados

Aunque Gemini tiene 2 millones de tokens, más contexto no significa mejor resultado. Hay evidencia de que el performance decae después de ~128K tokens. El modelo se "pierde" en tanto contexto.

Mi experiencia: Mi agente con contexto masivo tuvo performance mediocre. Reduje contexto a lo estrictamente necesario y el performance subió 15%.

Más contexto ≠ Mejor resultado. Contexto RELEVANTE = Mejor resultado.

Workflows rígidos (N8N, Power Automate) fallan con variabilidad real

Los workflows predefinidos con "cajitas con flechas" fallan porque las tareas de negocio son indeterminísticas, no mecánicas.

Ejemplo: Cierre contable mensual.

En teoría: Recolectar facturas → Validar → Generar reporte → Enviar.

En la realidad: 3 facturas en formato incorrecto. 2 faltan completamente. 1 con montos que no cuadran. El proveedor cambió de razón social. Una factura duplicada con datos diferentes.

Tu workflow bonito: ¿Qué hacer ahora?

Las tareas reales tienen demasiadas casuísticas y longtails. Necesitas sistemas que se adapten, no flujos rígidos.

RAG no es una solución mágica

RAG (Retrieval Augmented Generation) es un concepto, no una solución única.

Los enfoques comunes de RAG fallan en:

  • Validación del output (¿la información es correcta?)
  • Trazabilidad real (¿de dónde salió exactamente esta respuesta?)
  • Escalabilidad (funciona con 100 documentos, colapsa con 10,000)
RAG mal implementado es solo "buscar y esperar que el LLM lo entienda bien". No es suficiente para producción enterprise.
PROBLEMA 3

Escalar no es solo "comprar más servidores"

Con 10 conversaciones:
  • → Revisas manualmente cada interacción
  • → Puedes detectar patrones con Excel
  • → Debuggeas mirando logs
Con 10,000 conversaciones diarias:
  • → Imposible revisar todo manualmente
  • → Excel no sirve para nada
  • → Necesitas telemetría automatizada y feedback loops

Escalar es tener arquitectura que mantiene calidad a volumen.

Cuándo usar cada enfoque

Enfoque tradicional (LLM directo)

Válido para:

Tareas creativas sin consecuencias críticas:
  • Generar ideas de marketing
  • Escribir borradores de emails
  • Brainstorming de producto
Asistentes conversacionales simples:
  • Chatbot de soporte (con supervisión humana)
  • FAQ automatizada
Prototipos y demos:
  • Probar conceptos rápidamente
  • POCs (Proof of Concept)

Características:
Errores no tienen consecuencias graves, siempre hay humano que puede intervenir, no requiere certificación ni compliance, volumen bajo o controlado.

Enfoque KPU (sistema enterprise)

Necesario para:

Procesos críticos de negocio:
  • Contabilidad y finanzas
  • Compliance y auditoría
  • Procesamiento de transacciones
Casos que requieren certificación:
  • Industrias reguladas (banca, salud, seguros)
  • Cumplimiento normativo (SOX, GDPR, HIPAA)
Cuando necesitas garantías:
  • 99.9% de fiabilidad
  • Trazabilidad completa
  • Rollback instantáneo si algo falla

Características:
Errores cuestan dinero/reputación/compliance, no siempre hay humano disponible inmediatamente, requiere certificación y documentación, alto volumen 24/7.

Lo que estoy construyendo: El modelo KPU

¿Qué es un KPU?

Después de meses en las trincheras, no estoy construyendo un agente más inteligente. Estoy construyendo una arquitectura KPU (Knowledge Processing Unit) para que los agentes funcionen en producción real.

Es un sistema de capas que separa claramente: Lo que el LLM hace bien (entender lenguaje natural, extraer intención). Lo que el código determinístico hace bien (validar, ejecutar reglas de negocio). Lo que los humanos deben supervisar (decisiones críticas, excepciones).

No es un "agente inteligente que lo hace todo". Es una arquitectura enterprise que combina IA probabilística con lógica determinística.

Los 5 componentes del sistema KPU

01

Generación estructurada

Metodología repetible para crear prompts. No artesanía, proceso.

02

Validación determinística multinivel

Sistema de scoring 0-100. Score <75 = No va a producción. Sin excepciones.

03

Telemetría profunda

El cambio más importante. Antes: "El agente no funciona bien". Ahora: "El 23% de fallos ocurren cuando el usuario dice fechas relativas. El agente las procesa incorrectamente".

Puedo CORREGIR el problema específico.

04

Feedback loop automatizado

Todavía en construcción. Producción → Análisis → Optimización → Validación → Deploy gradual.

05

Versionado y trazabilidad completa

Cada prompt en Git. Rollback en <60 segundos. He hecho rollback 7 veces en 2 meses.

Los números honestos

Hace 6 meses (sin sistema)
3-4 semanas

por agente

52-65%

tasa de éxito en producción

Sin visibilidad

de qué está fallando

Ahora (con sistema KPU)
5-7 días

por agente

75-85%

tasa de éxito

Visibilidad total

de qué falla y por qué

Proceso repetible

y escalable

¿Está terminado? No.

¿Funciona perfecto? Para nada.

¿Tengo días frustrantes? Constantemente.

Pero la diferencia es abismal.

La verdad brutal

Construir sistemas enterprise:

  • Es lento (meses, no semanas)
  • Es caro (tiempo, recursos, expertise)
  • Tiene muchos fallos (siempre)
  • Requiere expertise multidisciplinar
  • Nunca está "terminado"

Si alguien te vende "el sistema perfecto de IA", te está mintiendo.

La pregunta no es si tienes fallos. Es: ¿tienes arquitectura para detectarlos, entenderlos y corregirlos sistemáticamente?

La decisión que define tu futuro

¿Estás creando agentes en entornos controlados o estás construyendo sistemas para producción real?

Porque en 2025, esa diferencia lo cambia todo.

Los agentes

Impresionan en demos

Los sistemas

Funcionan con usuarios reales

Los agentes

Son proyectos

Los sistemas

Son productos escalables

Los agentes

Funcionan en condiciones ideales

Los sistemas

Funcionan con variabilidad real

Yo estoy construyendo el sistema KPU.

Con fallos. Con depuración constante. Con días frustrantes.

Pero cada día más cerca de tener arquitectura que realmente funcione en producción enterprise.

¿Tú qué estás construyendo?

Si estás en las trincheras construyendo sistemas reales (no demos bonitas), me encantaría conocer tu experiencia.

Qué fallos has encontrado. Qué has aprendido. Qué te frustra. Qué funciona.

Porque esto no se aprende en tutoriales de YouTube. Se aprende depurando en producción.

Sígueme para más contenido honesto sobre construir sistemas de IA que realmente funcionan (con fallos incluidos).

La próxima semana compartiré errores específicos de producción y cómo los depuré.

Esta charla te ahorra meses de errores en las trincheras

No es marketing. Es la realidad del choque entre lo que se promete y lo que realmente funciona.

Con Bernat Farrero e Ilya Zayats. Vale cada minuto si estás construyendo sistemas de IA para empresas reales.

👉 Ver charla completa en YouTube