
2025 deveria ser o ano do agente de IA, certo?
Não exatamente, reconheça o Google Cloud e o Replit – dois grandes players no espaço de agentes de IA e parceiros no "codificação de vibração" movimento – em um evento recente da VB Impact Series.
Mesmo enquanto eles próprios desenvolvem ferramentas de agência, os líderes das duas empresas dizem que as capacidades ainda não chegaram lá.
Esta realidade limitada resume-se a dificuldades com fluxos de trabalho legados, dados fragmentados e modelos de governação imaturos. Além disso, as empresas entendem mal que os agentes não são como outras tecnologias: eles exigem uma repensação e reelaboração fundamental dos fluxos de trabalho e processos.
Quando as empresas estão construindo agentes para automatizar o trabalho, “a maioria deles são exemplos de brinquedos”, disse Amjad Masad, CEO e fundador da Replit, durante o evento. “Eles ficam entusiasmados, mas quando começam a implementá-lo, não está funcionando muito bem.”
Construindo agentes baseados nos próprios erros do Replit
A confiabilidade e a integração, e não a própria inteligência, são duas barreiras principais para o sucesso dos agentes de IA, observou Masad. Os agentes frequentemente falham quando executados por longos períodos, acumulam erros ou não têm acesso a dados limpos e bem estruturados.
O problema com os dados corporativos é que eles são confusos — são estruturados, não estruturados e armazenados em todos os lugares — e rastreá-los é um desafio. Além disso, há muitas coisas não escritas que as pessoas fazem e que são difíceis de codificar nos agentes, disse Masad.
“A ideia de que as empresas vão simplesmente ativar agentes e os agentes substituirão os trabalhadores ou farão automatizações de fluxo de trabalho automaticamente, simplesmente não é o caso hoje”, disse ele. “As ferramentas não estão lá.”
Indo além dos agentes, estão as ferramentas de uso do computador, que podem ocupar o espaço de trabalho do usuário para tarefas básicas, como navegação na web. Mas estes ainda estão em sua infância e podem ser problemáticos, não confiáveis e até perigosos, apesar do entusiasmo acelerado.
“O problema é que os modelos de uso de computadores estão muito ruins no momento”, disse Masad. “Eles são caros, são lentos, estão progredindo, mas têm apenas um ano de idade.”
Replit está aprendendo com seu próprio erro no início deste ano, quando seu codificador de IA foi apagado toda a base de código de uma empresa em um teste. Masad admitiu: “As ferramentas não estavam suficientemente maduras”, observando que desde então a empresa isolou o desenvolvimento da produção.
Técnicas como testes em loop, execução verificável e isolamento de desenvolvimento são essenciais, observou ele, mesmo que possam consumir muitos recursos. Replit incorporou recursos in-the-loop na versão 3 de seu agente, e Masad disse que seu agente de próxima geração pode trabalhar de forma autônoma por 200 minutos; alguns o executaram por 20 horas.
Ainda assim, ele reconheceu que os usuários expressaram frustração com os tempos de atraso. Quando eles fazem uma “instrução pesada”, podem ter que esperar 20 minutos ou mais. Idealmente, eles expressaram que desejam se envolver em um ciclo mais criativo, onde possam inserir vários prompts, trabalhar em várias tarefas ao mesmo tempo e ajustar o design conforme o agente trabalha.
“A maneira de resolver isso é o paralelismo, criar vários loops de agentes e fazê-los trabalhar nesses recursos independentes, permitindo que você faça o trabalho criativo ao mesmo tempo”, disse ele.
Agentes exigem uma mudança cultural
Além da perspectiva técnica, há um obstáculo cultural: os agentes operam de forma probabilística, mas as empresas tradicionais são estruturadas em torno de processos determinísticos, observou Mike Clark, diretor de desenvolvimento de produtos do Google Cloud. Isso cria uma incompatibilidade cultural e operacional à medida que os LLMs chegam com ferramentas, estruturas de orquestração e processos totalmente novos.
“Não sabemos como pensar sobre agentes”, disse Clark. “Não sabemos como resolver o que os agentes podem fazer.”
As empresas que fazem isso corretamente estão sendo impulsionadas por processos de baixo para cima, observou ele: software sem código e com pouco código e criação de ferramentas nas trincheiras canalizadas para agentes maiores. Até o momento, as implantações bem-sucedidas são limitadas, cuidadosamente definidas e fortemente supervisionadas.
“Se eu olhar para 2025 e esta promessa de ser o ano dos agentes, foi o ano que muitas pessoas passaram construindo protótipos”, disse Clark. “Agora estamos no meio desta fase de grande escala.”
Como você protege um mundo sem pastagens?
Outra dificuldade é a segurança dos agentes de IA, que também exige repensar os processos tradicionais, observou Clark.
Os perímetros de segurança foram desenhados em torno de tudo – mas isso não funciona quando os agentes precisam ter acesso a muitos recursos diferentes para tomar as melhores decisões, disse Clark.
“Isso está realmente mudando nossos modelos de segurança, mudando nosso nível básico”, disse ele. “O que significa menor privilégio em um mundo sem pastagens e indefesas?”
Em última análise, deve haver uma repensação da governação por parte de toda a indústria e as empresas devem alinhar-se num modelo de ameaça em torno dos agentes.
Clark salientou a disparidade: “Se olharmos para alguns dos nossos processos de governação, ficaremos muito surpreendidos com o facto de a origem desses processos ter sido alguém numa máquina de escrever eléctrica IBM, a escrever em triplicado e a entregá-los a três pessoas. Esse não é o mundo em que vivemos hoje.”
