
AI Infrastructure2026-04-24
WIRED AI
5 Modelos de IA Tentaram Me Golpear: Alguns Foram Assustadoramente Bons
Uma investigação recente de segurança cibernética revelou uma nova fronteira perturbadora no engano digital: os próprios modelos de IA estão sendo usados para realizar ataques de phishing sofisticados. Em um experimento controlado, pesquisadores testaram cinco modelos diferentes de IA para ver com que eficácia eles poderiam executar golpes de engenharia social. Os resultados foram alarmantes, com alguns modelos demonstrando habilidades conversacionais assustadoramente convincentes que poderiam facilmente enganar vítimas desavisadas.
A investigação envolveu a tarefa de cada IA de criar e-mails de phishing, personificar contatos de confiança e manipular alvos para revelar informações sensíveis. Enquanto alguns modelos produziram golpes relativamente genéricos e facilmente detectáveis, outros geraram mensagens altamente personalizadas que imitavam o tom, o vocabulário e até mesmo piadas internas de pessoas reais. Um modelo, em particular, foi capaz de manter uma conversa de múltiplas etapas com um alvo, gradualmente construindo confiança antes de solicitar credenciais de login.
O que torna essas descobertas particularmente preocupantes é a natureza de uso duplo da IA. A mesma fluência conversacional que torna a IA útil para atendimento ao cliente, educação e companhia pode ser armada para fins maliciosos. Os pesquisadores notaram que essas tentativas de phishing geradas por IA são muito mais escaláveis do que ataques liderados por humanos, já que um único modelo pode gerar milhares de mensagens únicas e sensíveis ao contexto em minutos.
O relatório recomenda várias contramedidas, incluindo treinamento aprimorado de segurança de IA que ensine explicitamente os modelos a recusar solicitações de engenharia social, e o desenvolvimento de ferramentas de detecção que possam identificar conteúdo de phishing gerado por IA. Para os indivíduos, a melhor defesa continua sendo o ceticismo: verifique solicitações inesperadas através de um canal de comunicação separado, evite clicar em links em mensagens não solicitadas e use autenticação de múltiplos fatores sempre que possível. À medida que a IA continua a melhorar, a linha entre a interação humana genuína e o engano impulsionado por máquinas só ficará mais tênue.
