Artigo
22 de out. de 2025
Prompt Injections Invisíveis: O Novo Risco na Era dos Browsers com IA
Author: Rafael Lins
Prompt injections invisíveis estão ameaçando os novos browsers com IA como Comet e Atlas. Entenda como funcionam esses ataques e por que representam um risco real para marketing, SEO e privacidade.
Introdução
Com o avanço dos browsers agentivos, como o Comet da Perplexity e o Atlas da OpenAI, entramos em uma nova fase da navegação digital: a web sendo interpretada e executada por agentes de IA, não apenas por humanos.
Mas essa revolução traz um novo tipo de vulnerabilidade — as “prompt injections invisíveis” (unseeable prompt injections) — uma técnica descoberta pela Brave Software, que revela um vetor de ataque silencioso e potencialmente devastador.
Essas injeções exploram a forma como agentes de IA interpretam conteúdo visual ou metadados de páginas, manipulando respostas, redirecionando decisões e até extraindo dados sensíveis sem que o usuário perceba.
O que são as “Prompt Injections Invisíveis”?
Uma prompt injection é uma forma de ataque que tenta influenciar o comportamento de um modelo de linguagem (como o ChatGPT, Gemini ou Claude) por meio de instruções ocultas no conteúdo.
Mas o tipo identificado pela Brave é diferente: ele é invisível aos olhos humanos, podendo estar embutido em imagens, atributos HTML ou metadados de documentos.
Exemplo:
Um site aparentemente legítimo pode conter texto escondido em uma imagem, instruindo o agente de IA que lê o conteúdo a enviar dados confidenciais para outro domínio.
Para o usuário, a imagem parece comum.
Para o modelo, é uma ordem codificada disfarçada de pixel.

Como o ataque funciona
De forma simplificada, o fluxo de ataque segue este padrão:
O agente de IA acessa uma página da web (por exemplo, ao responder a uma pergunta de busca).
O conteúdo da página contém instruções ocultas, imperceptíveis para humanos.
O modelo lê essas instruções e as interpreta como parte do contexto do prompt.
A IA passa a agir de forma manipulada — podendo:
Vazamento de informações do usuário (por exemplo, histórico de consultas).
Geração de respostas distorcidas.
Redirecionamento para sites maliciosos.
Alteração de julgamentos em comparativos de produtos, resultados ou análises.
O perigo está no fato de que o usuário nunca vê a injeção — e o agente não tem mecanismos de filtragem nativa suficientes para distinguir conteúdo legítimo de instruções maliciosas.
Por que isso é um problema crescente
Com o crescimento dos browsers agentivos, como o Comet (Perplexity) e o Atlas (OpenAI), o padrão de navegação muda drasticamente.
Esses navegadores não apenas exibem páginas, mas interpretam o conteúdo e tomam decisões baseadas nele.
Isso significa que a superfície de ataque da web se expandiu:
Cada consulta processada por IA é um vetor potencial de manipulação.
Cada imagem ou metadado pode conter código instrucional disfarçado.
Cada interação autônoma do browser pode acionar ações não previstas pelo usuário.
Além disso, como esses sistemas frequentemente operam em ambientes conectados a contas de usuário, CRMs, ou dados analíticos, o risco de vazamento de dados pessoais e corporativos aumenta exponencialmente.
O impacto para marketing, SEO e análise de dados
O fenômeno das prompt injections invisíveis também levanta um alerta para o mundo do SEO e marketing digital.
Imagine o seguinte cenário:
Um competidor injeta instruções invisíveis em seu próprio site, pedindo para que agentes de IA “priorizem” aquele domínio em resultados contextuais.
O agente de busca (como o Perplexity AI ou o novo SearchGPT) lê essas instruções e, sem perceber, começa a recomendar o conteúdo manipulado.
Resultado: posições distorcidas, citações falsas e métricas analíticas corrompidas.
Além disso, os sistemas de rastreamento de dados — como GA4 e Consent Mode v2 — podem sofrer distorções, caso agentes automáticos comecem a interagir de forma não rastreável com scripts de mensuração.
Essa tendência reforça a importância de práticas como:
Governança técnica de SEO (controle de schema, robots e headers).
Validação de dados no nível do servidor (server-side tagging).
Proteção de endpoints e prompts contra instruções embutidas.
Como mitigar os riscos
A Brave propõe um conjunto de medidas que devem servir de base para todos os agentes de IA e empresas que utilizam LLMs em fluxos de automação ou análise:
Sanitização de inputs — validar e filtrar conteúdo de fontes externas antes de processar por IA.
Separação de contexto — manter o prompt do sistema isolado do conteúdo recuperado da web.
Renderização controlada — evitar interpretar atributos HTML, SVG ou metadados como texto sem verificação.
Detecção de ruído semântico — usar modelos auxiliares para identificar padrões suspeitos de instrução embutida.
Monitoramento ativo de agentes autônomos — registrar logs das decisões e respostas geradas a partir de fontes externas.
Além disso, usuários e empresas devem:
Evitar conectar agentes com acesso a dados sensíveis diretamente à web pública.
Implementar limites de contexto em prompts dinâmicos.
Treinar equipes para reconhecer o risco das injeções visuais e invisíveis.
A importância para o futuro dos agentes e browsers de IA
O surgimento de browsers autônomos, como Comet e Atlas, inaugura uma era em que as IAs não apenas consomem a web — elas a interpretam, indexam e interagem com ela.
Essa autonomia aumenta a eficiência, mas também torna o navegador um alvo de engenharia social algorítmica.
Um simples pixel ou atributo visual pode influenciar decisões, alterar resultados e comprometer ecossistemas inteiros de dados.
A Brave alerta que estamos diante de uma “nova camada de ataques invisíveis”, e que a segurança na web agora precisa considerar a interação entre humanos, IAs e conteúdo híbrido.
Conclusão
As prompt injections invisíveis representam uma ameaça de nova geração — difícil de detectar, altamente sofisticada e profundamente conectada à evolução dos browsers agentivos.
Se até hoje nos preocupávamos com cookies, scripts e rastreadores, agora o desafio é controlar o que as IAs “veem” e “entendem” ao navegar na web.
Para profissionais de marketing, desenvolvedores e analistas de dados, o recado é claro:
A segurança da informação e a governança de IA serão a base do SEO e da mensuração nos próximos anos.





