Capítulo 11 · Agentes · 10 min
Do modelo que responde ao modelo que age
Tool use, ciclo ReAct, tarefas multi-etapa. Como um LLM se torna um agente capaz de agir no mundo.
Pensar, agir, observar
Um agente nao e necessariamente um modelo mais inteligente. E um modelo colocado dentro de um ciclo em que pode decidir uma acao, chamar uma ferramenta, observar o resultado e continuar.
Observe o loop: o modelo pensa, escolhe uma ferramenta, lê o resultado, recomeça. Cada ciclo é uma nova predição de token — o «agente» emerge de um LLM ao qual ensinaram a chamar funções, não de uma nova arquitetura.
O ciclo ReAct
O padrao classico se chama ReAct: Reason + Act.
- O modelo raciocina sobre o proximo passo.
- Produz uma acao estruturada: chamar uma ferramenta, buscar, calcular.
- O sistema executa essa acao.
- O resultado volta para o contexto.
- O modelo decide se precisa de outro passo ou se pode responder.
O modelo nao executa a ferramenta dentro dos pesos. Ele escreve uma chamada que o programa ao redor interpreta.
Por que funciona
Um LLM e bom com linguagem, planejamento aproximado e transformacao de informacao. E ruim com aritmetica exata, dados em tempo real e acoes externas.
Ferramentas compensam essas fraquezas:
- calculadora para numeros exatos
- busca para informacao recente
- banco de dados para dados internos
- API para agir em um sistema
O agente combina linguagem e execucao.
Riscos
Dar ferramentas a um modelo tambem aumenta o risco:
- ele pode escolher a ferramenta errada
- pode interpretar mal uma observacao
- pode entrar em ciclos
- pode executar acoes amplas demais
Por isso um agente serio precisa de limites: permissoes, validacoes, logs, confirmacoes humanas para acoes sensiveis.
MCP: rumo a um padrao para ferramentas
No comeco, cada fornecedor definia seu proprio formato de tool use: a OpenAI tinha function calling, a Anthropic tinha seu protocolo interno, cada framework agentico reinventava a roda. Resultado: incompatibilidades, integracoes refeitas para cada modelo, ecossistema fragmentado.
Em novembro de 2024, a Anthropic publicou o Model Context Protocol (MCP): um padrao aberto para descrever ferramentas, recursos e prompts de forma independente do modelo. Um servidor MCP expoe um conjunto de ferramentas (por exemplo, "leia este arquivo", "consulte este banco de dados"). Qualquer cliente compativel com MCP — Claude Desktop, Cursor, extensoes do VSCode, frameworks agenticos — pode se conectar a ele.
A analogia que aparece com frequencia: o MCP esta para os LLMs como o USB-C esta para os perifericos. Uma porta comum.
A adocao foi rapida: OpenAI, Microsoft e a maioria dos fornecedores principais anunciaram suporte ao MCP em 2025. Tornou-se de fato o protocolo padrao para tool use.
Code interpreter, sandboxes, computer use
Algumas classes de ferramentas particularmente importantes:
Code interpreter. Um sandbox Python (as vezes JavaScript) onde o modelo pode executar codigo arbitrario. Calculos precisos, manipulacao de dados, geracao de graficos — tudo o que os LLMs fazem mal nativamente, eles podem delegar ao Python. Disponivel na OpenAI, Claude, Google.
Browser / web automation. Uma ferramenta que torna o modelo capaz de clicar, rolar, preencher formularios em paginas web. A Anthropic chama isso de computer use; a OpenAI oferece o Operator. Ainda fragil, mas evolui rapido.
File system & shell. Uma ferramenta que da acesso a um disco virtual e a um terminal. O coracao dos "coding agents" como Cursor, Cline, Aider, Claude Code.
Memoria de longo prazo
O contexto de um agente cresce, mas continua limitado. Como um assistente reconhece voce na proxima conversa? Com uma memoria de longo prazo externa.
Varias abordagens:
- Memoria vetorial — cada interacao importante e resumida e armazenada como embedding. A cada nova conversa, recuperam-se as memorias relevantes (RAG, versao memoria).
- Perfil de usuario estruturado — o agente mantem um dossie sobre o usuario (preferencias, projetos em andamento, historico).
- Memoria procedural — o agente guarda receitas que funcionaram ("para resumir um paper, siga estes passos").
ChatGPT introduziu memoria em 2024, Claude em 2025. E uma das areas mais ativas no desenho de agentes.
O proximo passo
Outra forma de adaptar um modelo nao e dar ferramentas, mas alterar uma pequena parte dos pesos para um dominio concreto. Isso e fine-tuning, especialmente LoRA.
Atualizado em