Tools & Pray: Por que "function calling" não é a solução mágica para tudo [Capítulo 4 - AI Deep Dives]

George

Chief of AI na Moveo

19 de setembro de 2025

in

✨ AI Deep Dives

Bem-vindos a mais um artigo da nossa série "AI Deep Dives", onde desvendamos os desafios e as melhores práticas para implementar sistemas de IA em ambientes corporativos.

No nosso último capítulo, exploramos como o processo de pagamentos e contas a receber, uma área que exige sensibilidade e rigor, ilustra os perigos da abordagem “Prompt & Pray”. Vimos que simplesmente confiar em um grande modelo de linguagem (LLM) para gerenciar todo o processo, incluindo a negociação e o cumprimento de regulamentos, é uma aposta arriscada. 

Isso porque a fluência do LLM não substitui a necessidade de regras de negócio claras, validações e governança. Em vez disso, defendemos que uma arquitetura de Multi-Agent System, onde cada etapa é controlada por um agente especializado, oferece a segurança e a auditabilidade essenciais para operações críticas.

Agora, vamos mergulhar no próximo passo evolutivo, que muitas equipes adotam quando percebem as limitações do "Prompt & Pray": a transição para o "Tools & Pray".

Do "Prompt & Pray" para o "Tools & Pray": a busca por mais controle

Do "Prompt & Pray" para o "Tools & Pray": a busca por mais controle

Quando as equipes de desenvolvimento enfrentam a fragilidade de um LLM autônomo, o próximo passo lógico é integrar "ferramentas" por meio de algo chamado “function calling”. O objetivo é permitir que o modelo interaja com APIs externas, como buscar o saldo de uma conta, enviar um código de autenticação (OTP) ou até mesmo criar um plano de pagamento.

A primeira vista, isso parece a solução ideal. O desenvolvedor expõe um conjunto de APIs ao modelo e instrui, por meio do prompt, quando e como usá-las. A sensação é de ter finalmente o controle. O modelo agora pode "agir" no mundo real.

No entanto, a abordagem subjacente ainda é a mesma: "Tools & Pray". Você continua dependendo de uma caixa-preta para tomar decisões consistentes. A esperança é que o modelo:

  • Selecione a ferramenta certa.

  • Na ordem correta.

  • Com os argumentos exatos.

  • E que respeite as políticas de negócio e de segurança.

Em outras palavras, embora o function calling possa parecer uma evolução, ele não resolve o problema fundamental de controle.

Em ambientes corporativos de alto risco, depender de um LLM para orquestrar processos complexos, mesmo com acesso a ferramentas, adiciona risco em vez de eliminá-lo.

Como também mencionamos em capítulos anteriores, a verdadeira solução reside em uma arquitetura que separe o que o modelo faz bem (a conversa fluida e a interpretação de texto) do que exige precisão, segurança e auditabilidade (as regras de negócio).

→ Leia o Capítulo 4 da série "AI Deep Dives": IA para Pagamentos: Por Que “Prompt & Pray” falha e o que escala com segurança

O risco de confiar apenas no LLM

Em indústrias de alta criticidade, como serviços financeiros e cobrança de dívidas, essa abordagem é especialmente perigosa. O que parece ser um simples "conjunto de APIs" é, na verdade, um processo de negócio complexo e multifacetado que exige:

  • Validações de elegibilidade.

  • Divulgações obrigatórias por lei.

  • Validação de consentimento.

  • Etapas de autenticação adicionais.

  • E notas de auditoria.

Tentar "empacotar" todos esses requisitos em descrições de ferramentas e um "mega-prompt" não garante que eles serão executados na sequência correta, que haverá uma recuperação adequada em caso de falha, ou que o tom será o exigido por reguladores.

O modelo pode até recuperar o saldo correto e redigir uma mensagem educada, mas também pode pular o pedido de consentimento, lidar mal com a autenticação ou fabricar um parâmetro de plano de pagamento, tudo antes que alguém perceba.

O que "function calling" pode e não pode resolver

Para ser claro, o function calling tem seu lugar. Ele é ótimo para:

✅ Acesso a dados recentes: permite que o modelo busque informações atualizadas.
✅ Recuperação estruturada: ajuda a buscar dados específicos e organizados.
✅ Integração de dados: fornece um "chão" factual para a resposta do LLM.

No entanto, por si só, ela não resolve:

Controle de processo: a ordem e a lógica das ações não são garantidas.
Validação de argumentos: não assegura que os dados inseridos nas ferramentas são válidos ou seguem as regras de negócio.
Consentimento e autorização: não garante que as etapas de permissão foram seguidas.
Garantia de tom e conformidade: a resposta final e o comportamento do sistema podem não seguir as diretrizes de compliance.
Auditabilidade e explicabilidade: torna a rastreabilidade de cada passo do processo um verdadeiro pesadelo.

Imagine, por exemplo, um cliente solicitando o cancelamento de uma transferência bancária. O LLM escolhe a ferramenta correta, mas esquece de verificar a identidade com um OTP antes de executar a chamada, ou ele "alucina" um ID de transação que parece válido, mas não existe. 

Ambos os casos resultam em falhas de controle, potencial exposição a fraudes e uma reconciliação dolorosa para as equipes financeiras. Sem um planejador externo, validadores e um plano de controle determinístico, a abordagem "Tools & Pray" simplesmente não é robusta o suficiente para a realidade de uma empresa.

→ Confira também: O que é RAG em IA (e o que não é)

A solução está na orquestração e no controle determinístico

Se o "Prompt & Pray" é uma aposta e o "Tools & Pray" ainda carece de controle, qual é o caminho a seguir? 

A resposta é a orquestração: um sistema que combina a fluência e o raciocínio dos LLMs com a precisão, segurança e auditabilidade de fluxos determinísticos.

É assim que funciona na prática:

  • Os LLMs continuam fazendo o que são melhores: interpretar linguagem natural e guiar a conversa.

  • O function calling é utilizado para utilidade: buscar saldos, verificar transações ou recuperar dados de política atualizados.

  • Fluxos determinísticos envolvem essas chamadas, garantindo que ocorram na ordem certa (por exemplo, consentimento → OTP → cancelar transferência) e que os argumentos sejam válidos para o negócio, não "alucinações".

  • Agentes especializados (de planejamento, conformidade, insights) decidem quando uma ferramenta deve ser usada, validam o resultado e registram cada ação para auditoria e explicabilidade.

O function calling ainda desempenha um papel, mas como um componente dentro do fluxo, não como o próprio plano de controle. Dessa forma, você obtém o melhor dos dois mundos: a flexibilidade natural dos LLMs combinada com as salvaguardas da automação estruturada.

O resultado é um sistema de nível empresarial que escala com segurança, se adapta de forma inteligente e passa em auditorias.

Curioso para ver isso em ação? No próximo capítulo, exploraremos "Como o Function Calling Funciona (e Onde Falha)" com exemplos do mundo real sobre como a orquestração determinística resolve as limitações do "Tools & Pray."

Fale com nossos especialistas em IA →