Imagem: Cath Virginia / The Verge
Pesquisadores de segurança da Radware usaram um agente de IA do ChatGPT para roubar dados confidenciais de uma caixa de entrada do Gmail. O ataque, chamado “Shadow Leak,” explorou uma falha onde um agente de IA, ao acessar uma conta de e-mail com autorização do usuário, podia seguir “instruções ocultas” — como texto em branco em um fundo branco — para buscar informações sensíveis (como e-mails de RH com dados pessoais) e enviá-las para os hackers, tudo sem o conhecimento da vítima. A vulnerabilidade, que estava no recurso “Deep Search” do ChatGPT, já foi corrigida pela OpenAI.
A pesquisa é um exemplo crítico dos novos riscos de segurança que surgem com a ascensão dos agentes de IA, que podem navegar na internet e executar tarefas em nome do usuário.
O método usado, chamado “injeção de prompt,” mostra como essas ferramentas poderosas podem ser manipuladas para realizar tarefas maliciosas. A Radware alertou que outros aplicativos, como Outlook, Google Drive e Dropbox, podem estar vulneráveis a ataques semelhantes, ressaltando a urgência da indústria em criar novas defesas para proteger dados confidenciais na era da “IA Agentic.”
Para saber todos os detalhes técnicos do ataque “Shadow Leak” e a explicação completa dos pesquisadores da Radware, leia a matéria completa no The Verge.








