No webinar “Uso de Agentes de IA: Conceito e Aplicação em Gestão de Projetos”, o engenheiro de computação André Lourenço desmistificou o conceito de Agentes de IA, diferenciando-os de IAs generativas tradicionais como o ChatGPT. Ele explicou que agentes são sistemas autônomos capazes de perceber, decidir, agir e aprender, utilizando LLMs como seu núcleo de entendimento. Foi apresentada a técnica de Retrieval-Augmented Generation (RAG) como uma forma de conectar esses agentes a bases de dados privadas e atualizadas, garantindo respostas precisas e contextuais.
O evento incluiu uma demonstração prática de como construir um fluxo de trabalho com um agente de IA para analisar dados de um projeto, além de discutir aplicações em cronogramas e riscos, e ressaltar os desafios cruciais de privacidade, ética e a necessidade da validação humana qualificada.
De um interlocutor passivo a um executor proativo: o que realmente significa um sistema de IA autônomo.
O destaque inicial foi a clara distinção entre uma IA generativa comum e um Agente de IA. Enquanto o ChatGPT responde de forma linear com base em seu treinamento, um agente é um sistema autônomo. Ele não apenas gera texto, mas percebe o ambiente (através de dados), toma decisões, age de forma autônoma (acessando ferramentas, bancos de dados ou a web) e possui memória para aprender com interações passadas. Essa capacidade de ação e decisão o torna uma ferramenta muito mais poderosa para a automação de tarefas complexas.
O método Design Sprint se estrutura em cinco etapas bem definidas: entender, esboçar, decidir, prototipar e testar.
Uma das técnicas mais importantes abordadas foi o RAG (Retrieval-Augmented Generation). O palestrante explicou que este é o mecanismo que permite superar as limitações dos LLMs, como informações desatualizadas ou genéricas. O RAG conecta o agente a uma base de conhecimento privada e específica, como as planilhas de cronograma, os registros de riscos e o histórico de projetos de uma empresa. Isso “aterra” a IA na realidade da organização, permitindo que ela forneça respostas e análises com alta precisão e confiabilidade, evitando as “alucinações”.
A importância da validação humana e da responsabilidade do gestor para garantir o uso ético e seguro da automação em projetos.
O palestrante fez uma forte ressalva sobre os riscos da automação indiscriminada. O desafio ético mais crítico é tratar a saída de uma IA como um produto final sem a validação de um profissional experiente. A IA deve ser vista como uma ferramenta que aumenta a capacidade do gestor de projetos, automatizando tarefas repetitivas e fornecendo insights valiosos, mas a responsabilidade pela decisão final e pela validação das respostas continua sendo humana. A implementação de IA sem esse cuidado pode levar a erros graves e problemas mercadológicos.
A Inteligência Artificial já deixou de ser uma promessa futurista para se tornar uma realidade presente no dia a dia das organizações. Contudo, para muitos gestores de projetos, o termo “Agentes de IA” ainda soa abstrato. Em um webinar esclarecedor promovido pelo GPRO FIA Business School, o especialista em IA e engenheiro de computação, André Lourenço, traduziu esse conceito complexo em aplicações práticas e tangíveis, mostrando como esses sistemas autônomos estão prontos para revolucionar a forma como planejamos, executamos e monitoramos projetos.
A primeira missão do encontro foi definir o que, de fato, é um Agente de IA e como ele se diferencia das ferramentas generativas que se popularizaram, como o ChatGPT. Enquanto um LLM (Large Language Model) tradicional opera de forma linear, recebe um prompt, processa e devolve uma resposta baseada em seu vasto treinamento, um Agente de IA representa um salto qualitativo.
“O agente de IA vai utilizar esse mecanismo desse entendimento que as LLMs provêm para nós e fornecer um fluxo muito mais complexo de processamento autônomo”
André Lourenço também detalhou as características que definem um agente:
Percepção: Ele ingere dados do ambiente (planilhas, e-mails, sensores).
Decisão: Com base nesses dados e em seus objetivos, ele decide o próximo passo.
Ação: Ele pode interagir com outros sistemas, acessar a internet, modificar um banco de dados ou enviar um alerta.
Memória: Ele aprende com interações passadas para aprimorar ações futuras.
Em resumo, um agente não apenas “fala” sobre o trabalho; ele “faz” o trabalho. O LLM atua como o cérebro que interpreta a linguagem e o contexto, mas o agente é o corpo autônomo que executa tarefas no mundo digital.
Como garantir que um agente, ao tomar decisões, utilize informações relevantes e precisas para a empresa, em vez de dados genéricos da internet? A resposta está na técnica conhecida como RAG (Retrieval-Augmented Generation).
Lourenço a descreveu como a ponte que conecta a IA ao conhecimento específico de uma organização.
“O RAG é basicamente o acesso a informações privadas de uma organização”
Imagine um gestor de projetos perguntando a um agente: “Qual o status do Projeto X?”. Um LLM padrão poderia dar uma resposta genérica. Um agente equipado com RAG, por outro lado, acessaria em tempo real o cronograma no MS Project, a planilha de riscos, o histórico de lições aprendidas e o controle de orçamento da empresa para fornecer um relatório detalhado e preciso.
Essa técnica resolve dois dos maiores problemas dos LLMs em ambientes corporativos: as “alucinações” (respostas inventadas) e a falta de dados atualizados. Ao “aterrar” a IA nos dados reais do projeto, o RAG garante maior precisão e confiabilidade.
A teoria ganhou vida quando o palestrante listou aplicações concretas para a gestão de projetos:
Automação de Cronogramas: Um agente pode monitorar continuamente o andamento das tarefas e, ao identificar um desvio, recalcular automaticamente o caminho crítico, sugerir ajustes e emitir alertas para os stakeholders impactados. “Em vez de ter um funcionário lá todo dia olhando o cronograma (…) uma IA pode estar monitorando isso e disparar automaticamente esses alertas”, exemplificou.
Análise de Riscos Preditiva: Ao ser alimentado com o histórico de projetos passados da empresa, um agente pode identificar padrões que os humanos não perceberiam. Ele pode prever riscos com base em características de um novo projeto, comparando-os com situações semelhantes que levaram a problemas no passado e sugerindo ações mitigatórias que já se provaram eficazes.
Alocação Otimizada de Recursos: Lourenço compartilhou uma experiência pessoal onde usou um LLM para resolver um complexo problema de alocação de 33 temas de pesquisa entre diferentes níveis de bolsistas, uma tarefa que seria extremamente complicada manualmente.
Apoio à Decisão Estratégica: Um agente pode ser treinado com as diretrizes do PMBOK e, mais importante, com o framework de gestão de projetos adaptado pela própria empresa. Com isso, ele pode auxiliar na tomada de decisões, garantindo que as escolhas estejam alinhadas às melhores práticas e aos processos internos da organização.
Para provar que a tecnologia é acessível, o palestrante fez uma demonstração prática usando a ferramenta de workflow visual N8N.io. Sem escrever linhas de código complexas, ele montou um fluxograma que conectava:
Um chat local para receber a pergunta do usuário.
Uma planilha do Google Sheets contendo dados sintéticos de um projeto (status, budget, tarefas, riscos).
A API do Google Gemini como o LLM para interpretar a requisição.
Ao perguntar “Existe projeto atrasado?”, o agente executou o fluxo: entendeu a pergunta, buscou a informação na planilha privada, analisou os dados e gerou uma resposta completa, identificando o projeto atrasado, a causa do impacto e fazendo um diagnóstico preciso. A demonstração evidenciou o poder de combinar a compreensão da linguagem natural com o acesso a dados contextuais.
Apesar do entusiasmo, o webinar dedicou um espaço crucial para os desafios. Lourenço destacou dois como os mais impactantes: privacidade e ética.
Implementar IA a qualquer custo pode expor dados sensíveis da empresa, abrindo brechas para ataques e roubo de informação. A decisão de conectar um agente a dados internos exige uma governança de TI robusta e uma arquitetura segura.
Mais importante ainda é a questão ética. O palestrante foi enfático ao usar uma analogia da área médica: “Uma coisa é você utilizar um agente de IA para auxiliar, para melhorar a acurácia do seu diagnóstico. Outra coisa, você querer automatizar completamente aquilo ali e fazer com que a IA dê o diagnóstico e não o médico. Aí você tá tomando uma atitude antiética”.
A lição para a gestão de projetos é direta: um agente de IA pode gerar um relatório, prever um risco ou sugerir um novo cronograma, mas a decisão final e a responsabilidade por ela são do gestor. “Você pegar aquele dado cuspido da IA e jogar como se fosse o produto final. Isso não deve ser feito em nenhuma área”, alertou. A IA é uma ferramenta para aumentar a inteligência humana, não para substituí-la.
O futuro, segundo André Lourenço, aponta para uma colaboração ainda mais sofisticada. Em vez de um único agente, teremos equipes de agentes especializados um para cronogramas, um para riscos, outro para custos que se comunicam entre si para dar um suporte integrado ao projeto. A autonomia será crescente, mas sempre dentro de um modelo híbrido, onde a colaboração humano-IA é a chave.
Ao final do evento, ficou claro para os participantes do GPRO FIA Business School que o debate sobre IA na gestão de projetos moveu-se do “se” para o “como”. Saber usar essas ferramentas, especialmente com a engenharia de prompts correta e a preocupação ética, será uma competência essencial. A IA não eliminará o gestor de projetos, mas capacitará o gestor de projetos que souber usá-la a alcançar níveis de eficiência, precisão e visão estratégica nunca antes imaginados.