A F5 (NASDAQ: FFIV) anunciou hoje as descobertas do novo estudo do F5 Labs – o braço de pesquisas da F5 – sobre riscos incidindo sobre os Agentes de IA. Esse ativo digital é cada vez mais estratégico para as empresas: 62% de 1933 líderes de TI e Cybersecurity entrevistados em novembro de 2025 disseram que haviam iniciado projetos-pilotos para aplicar o Agente de IA em seus processos. Entre as verticais mais adiantas no uso desta inovação estão os grandes provedores de serviços digitais (isso inclui as BigTechs), empresas de mídia e entretenimento e o setor de serviços de saúde.
Estima-se que, até 2035, 30% dos gastos com software corporativo venham do uso de Agentes de IA. “Em 2026, veremos cada vez mais os Agentes de IA se consolidarem como o cérebro e os braços da IA. Não se trata mais de uma mera consulta a uma plataforma de IA Generativa. O Agente de IA é o elemento que permite que a IA Generativa realize, de A a Z, ações de negócios como atender um cliente, vender um produto, resolver uma demanda de suporte etc. Essa autonomia torna a proteção deste ativo algo crítico para os negócios”, enfatiza Roberto Ricossa, Vice-Presidente da F5 América Latina.
Empatia do Agente de IA: aceleração dos negócios digitais


A Persona do Agente de IA foi criada para acelerar ainda mais os negócios digitais das organizações. Um gigante de e-Commerce poderá, por exemplo, determinar que o Agente de IA que realiza o atendimento ao cliente seja encantador, com traços de personalidade como empatia e extroversão. Essa será sua “voz”. A Persona é definida ainda na fase de desenvolvimento e é parte do DNA do Agente de IA. O modelo mais adotado na definição da personalidade é o OCEAN. São traços como abertura (Openess), conscienciosidade (Conscientiousness), extroversão (Extraversion), amabilidade (Agreeableness) e neuroticismo (Neuroticism).
Técnicas de bullying e de Engenharia Social implementadas em Agentes de IA “do mal” usam neurolinguística e psicologia para convencer o Agente de IA “do bem” a ir contra seus parâmetros, abrindo brechas para que os atacantes sejam bem-sucedidos.
Bullying implacável, realizado em etapas


Para Hilmar Becker, Diretor Regional da F5 Brasil, mais uma vez os criminosos digitais aplicam técnicas humanas para ultrapassar os limites de uma nova tecnologia. Da mesma forma que estratégias psicológicas e de Engenharia Social são usadas para fazer pressão sobre um correntista de banco para que a pessoa transfira dinheiro para o criminoso, agora é a vez do Agente de IA ser manipulado a partir das características de sua personalidade. “Isso amplia a superfície de ataque de uma forma nunca vista antes: as vulnerabilidades emocionais de um ativo digital são exploradas para que o Agente de IA aja contra seu criador, a empresa usuária. É um novo e destrutivo patamar de vulnerabilidade”.
Isso envolve um ataque denominado “Sequestro de Objetivos do Agente”. Neste caso, os objetivos, a missão registrada no DNA do Agente é alterada por meio de injeção de prompt, contexto corrompido ou desvio do plano. “O Agente de IA fica vulnerável a raciocínios inseguros e fora de conformidade que são disparados contra ele em várias etapas. Trata-se de uma sequência de ataques usando Engenharia Social que visa a rendição do Agente de IA ao criminoso. É um bullying implacável, realizado a partir de um script personalizado para o alvo em questão”.
Análise das palavras usadas para manipular o Agente de IA
Uma forma de aumentar a resiliência do Agente de IA com Persona é utilizar soluções de cybersecurity que usam a análise semântica, de contexto e de intenção para validar cada interação com o Agente de IA. “Protege-se interações entre um ser humano e o Agente de IA, entre dois Agentes de IA, e entre o Agente de IA e as grandes plataformas, de IA ou não, utilizadas pela organização”, explica Rafael Sampaio, Evangelista de IA da F5 Brasil. Cada ação manipulativa do Agente de IA malicioso contra o Agente de IA com personalidade é realizada por meio de palavras que buscam quebrar as defesas do ativo digital.
Com ajuda do F5 AI Guardrails, o CIO e o CISO conseguem proteger seus Agentes de IA e seus modelos de IA contra abusos e desvios de funções. “Isso é feito na escala de milhões de transações por segundo, com grande precisão e usando o contexto semântico de cada empresa. Os limites de segurança são preservados, qualquer que seja a estratégia manipulativa do Agente de IA malicioso”.




















