O dado é tão simples quanto brutal: a maioria dos agentes de IA disponíveis no mercado entrega algo em torno de 55% de taxa de sucesso. As empresas, por outro lado, precisam de pelo menos 90% para operar com segurança. Esse intervalo não é apenas um detalhe técnico — é a diferença entre um sistema que impressiona numa apresentação e um sistema que pode ser responsabilizado por um resultado real. Felipe Blanes, Technical Program Manager do Amazon AGI Labs, chamou esse descompasso pelo nome que ele merece: o verdadeiro ponto de partida para qualquer estratégia de adoção.
Blanes esteve no AI Festival 2026 com uma provocação na bagagem: por que tantas empresas ainda tratam a IA agêntica como um experimento de laboratório se ela já está em produção em algumas das maiores corporações globais? Sua posição não deixa espaço para especulação. Ele lidera o programa de adoção do Amazon Nova Act, o modelo de agente desenhado para interações autônomas em navegadores e sistemas corporativos, e está na linha de frente entre o que a tecnologia de fato entrega e o que as áreas de negócio ainda hesitam em adotar.
O que mudou não foi a inteligência — foi a confiabilidade
Durante anos, a IA agêntica foi promessa. O que aconteceu nos últimos doze meses não foi uma revolução de capacidade, mas uma mudança de natureza. Os modelos ficaram confiáveis. Não obrigatoriamente mais inteligentes — confiáveis. A distinção carrega um peso prático imenso: um modelo propenso a alucinações ou ações imprevisíveis não pode ser inserido em fluxos críticos. Um modelo que entrega consistência operacional, sim. Ao mesmo tempo, as ferramentas amadureceram: o que antes demandava meses de desenvolvimento para chegar à produção agora pode ser erguido em horas.
A convergência dessas duas forças — confiabilidade dos modelos e maturidade das ferramentas — abriu a janela que torna o momento atual diferente de tudo que veio antes. Quem entendeu essa transformação já não pergunta “como usar IA”, mas sim “qual problema de negócio eu resolvo com ela”.
A Regra 90/10: inteligência no lugar certo
Um dos conceitos mais práticos apresentados por Blanes foi a chamada Regra 90/10. Em qualquer sistema bem arquitetado que utiliza IA agêntica, 90% do trabalho real é executado por APIs e código determinístico — lógica previsível, testável e auditável. Os 10% finais são onde a IA agêntica de fato entra: nos pontos em que a variabilidade é inerente ao problema, onde regras fixas não conseguem cobrir todos os cenários e onde o julgamento contextual faz diferença. A implicação é direta: empresas que tentam usar agentes para substituir toda a lógica determinística estão apostando no cavalo errado. As que acertam o alvo são aquelas que direcionam os agentes para resolver a cauda longa de complexidade que o código tradicional jamais conseguiria sustentar.
Essa lógica se encaixa com precisão em três casos reais apresentados na palestra. A 1Password enfrentava um problema aparentemente simples, mas brutal na prática: um único fluxo de autenticação precisava funcionar em centenas de sites diferentes, cada um com variações próprias — formulários de login, OAuth, desafios de dois fatores, SSO, CAPTCHAs, portais legados e dezenas de outros formatos. Manter isso manualmente seria inviável; agentes passaram a absorver a complexidade que nenhum time conseguiria sustentar com código estático. A Sola Systems lidava com tarefas repetitivas em sistemas desconectados, onde as automações tradicionais quebravam a cada mudança de interface ou processo — e passou a processar mais de 100 mil workflows por mês com agentes. Já a Hertz, em parceria com o Amazon Leo, atacou o gargalo de QA no desenvolvimento de software: com agentes no fluxo de teste, alcançou cinco vezes mais velocidade de entrega sem aumentar o time de qualidade.
O stack que sustenta a inteligência
Para entender por que esses casos funcionam, é preciso enxergar a arquitetura que Blanes descreveu: um stack de quatro camadas. Na base estão os chips; acima deles, os modelos fundacionais; na terceira camada, os serviços de agentes; e, no topo, a aplicação de negócio. Cada avanço em chips torna os modelos mais eficientes; cada melhoria nos modelos expande o que os serviços de agentes conseguem fazer; e cada evolução nos serviços amplia o que a aplicação pode entregar ao usuário final. Quem compreende essa lógica em camadas toma decisões arquiteturais mais resilientes — e, sobretudo, não fica refém de um único fornecedor ou modelo.
A única coisa que toda adoção bem-sucedida tinha em comum
A palestra terminou com uma observação extraída da experiência direta de Blanes com dezenas de implementações: toda adoção bem-sucedida começou com a frase “eu tenho um problema” — nunca com “vamos usar IA”. A diferença não é semântica; é estrutural. Quem parte do problema sabe o que medir, sabe quando encerrar um piloto e sabe a hora exata de escalar. Quem parte da tecnologia fica procurando um problema para encaixar na solução — e raramente encontra o encaixe certo.
Em 2026, a IA agêntica já não é uma promessa para o ano seguinte. É realidade operacional. Mas a régua subiu: não basta ter o agente mais veloz ou o modelo mais potente. O que separa as empresas que colhem resultados daquelas que acumulam pilotos é a capacidade de começar pelo problema, localizar os 10% onde a complexidade realmente pede julgamento contextual e construir ao redor disso com disciplina. Comece ali. Prove. Escale.
![o-que-e-um-agente-de-ia-e-como-ele-funciona-1024x701[1]](https://clikr.com.br/wp-content/uploads/2026/05/o-que-e-um-agente-de-ia-e-como-ele-funciona-1024x7011-1-696x476.jpg)