agentes-llmpydanticailanggraphmicrosoft-agent-frameworkadrpython

Como elegi mi stack de agentes Python en 2026 (y por que no fue LangChain)

Necesitaba elegir un framework de agentes LLM para los proximos productos que voy a construir. Tenia tres candidatos en la mesa, y decidir entre ellos no era trivial.

Esta es la decision que tome y por que. Es un ADR honesto, no una recomendacion universal.

El contexto

Construyo backends Python con FastAPI + Postgres. Los productos van a tener features LLM (extraccion estructurada, scoring, RAG, automatizacion multi-paso). El usuario final es no-tecnico, asi que estabilidad y costo predecible importan mas que features fancy.

Los candidatos eran tres:

LangChain core lo descarte de entrada. Despues vuelvo a esa decision.

Lo que mire

Para cada framework evalue cinco cosas:

  1. Alineacion con mi stack (FastAPI + Pydantic ya invertido)
  2. Costo en tokens por tarea equivalente
  3. Latencia P95 en agente simple
  4. Estabilidad de API ultimos 6 meses
  5. DX — onboarding, testing, debug

PydanticAI — el match natural

Misma gente que mantiene Pydantic. La integracion con FastAPI es trivial — RunContext[Deps] se siente como Depends() de FastAPI, ya conocido.

Numeros que vi en blogs comparativos (caveat: no son benchmarks oficiales, son blogs secundarios):

Para producto donde el usuario paga COP 30-50K/mes, cada milagro de margen cuenta. Stack alineado + COGS predecible es el path.

LangGraph — el caso valido pero no default

LangGraph es lo correcto cuando necesitas multi-agente real con handoffs, human-in-the-loop persistente, o state machine con checkpoints que sobreviva crashes.

Klarna, Replit, Elastic lo usan en produccion. No es framework de juguete.

Mi excepcion: ya tengo un repo (ai-agents-workflow, ClaimFlow) usando LangGraph para multi-step approval pipelines. Ese caso lo justifica. Lo dejo ahi.

Pero LangGraph como default para todo? Overkill. 280 LOC vs 160 LOC para un agente simple sin payoff. Curva de aprendizaje empinada para algo que un agente single-purpose con tools no necesita.

Microsoft Agent Framework — esperar 6 meses

Lanzo 1.0 GA hace dos semanas. A2A Protocol nativo, MCP integrado, soporta .NET y Python, viene con el peso de Microsoft detras.

Suena bien. Pero adoptar framework de produccion con menos de 6 meses publicos es asumir riesgo que mi caso no necesita. Re-evaluo Q1 2027.

Por que NO LangChain core

Esta es la parte controvertida.

LangChain v1 lanzo oct 2025. La industria 2026 esta saliendo del LangChain core para nuevos proyectos:

Esos 2.4K tokens fantasma matan el margen cuando facturas a Don Carlos en pesos colombianos.

LangGraph (mismo equipo) vale para casos especificos. LangChain core para nuevo proyecto en 2026 = deuda tecnica desde commit #1.

La decision

PydanticAI v1 como default para productos SaaS/backend nuevos desde mayo 2026.

Excepciones documentadas:

Anti-recomendacion explicita: NO LangChain core nuevo.

Lo que va a pasar si la decision es mala

Tengo trigger explicito de revision:

Cada 6 meses chequeo ecosystem + breaking changes + performance.

Lo que hago manana

Empezar el primer producto con PydanticAI desde commit #1. Aprender en publico. Si en 3 meses descubro que me equivoque, el ADR lo dice y se ajusta. Asi funciona la disciplina senior — decision documentada, no decision oculta.


Si vas a evaluar tu propio stack de agentes, tres preguntas que valen la pena: ¿que stack ya tienes invertido? ¿el caso de uso necesita state machine real o es agente single-purpose? ¿cuanto te cuesta cada token sobre tu pricing al usuario final?

Volver al blog