AI Infrastructure2026-04-24WIRED AI

KI-Tools helfen nordkoreanischen Hackern, Millionen zu stehlen

Staatlich geförderte Hacker aus Nordkorea setzen zunehmend künstliche Intelligenz ein, um ihre Cyberkriminalitätsoperationen zu verstärken, so ein neuer Bericht von Cybersicherheitsforschern. Eine Gruppe, die vermutlich mit dem Lazarus-Kollektiv in Verbindung steht, nutzte KI-Tools in nahezu jeder Phase ihrer Angriffskette, vom Schreiben von Malware-Code bis zur Erstellung überzeugender gefälschter Firmenwebsites. Das Ergebnis: In nur drei Monaten wurden etwa 12 Millionen Dollar gestohlen. Der Bericht beschreibt detailliert, wie die Hacker KI für 'Vibe Coding' einsetzten – ein Begriff, der die Verwendung von KI zur Generierung funktionsfähigen Codes auf der Grundlage lockerer Beschreibungen anstelle präziser Anweisungen beschreibt. Dies ermöglichte es ihnen, schnell kundenspezifische Malware-Varianten zu entwickeln, die der herkömmlichen Antiviren-Erkennung entgehen konnten. Noch kreativer nutzte die Gruppe KI-Bildgeneratoren, um realistische Profilfotos für gefälschte Führungskräfte zu erstellen, und KI-Textmodelle, um professionell klingende Geschäfts-E-Mails zu verfassen, wodurch ihre Social-Engineering-Kampagnen weitaus überzeugender wurden. Die vielleicht ausgeklügeltste Taktik betraf KI-generierte Firmenwebsites. Die Hacker identifizierten legitime Unternehmen, klonten dann mit KI deren Webpräsenz mit subtilen Änderungen – wie geänderten Bankkontodaten auf Rechnungsseiten. Diese gefälschten Websites wurden dann durch gezielte Phishing-Kampagnen beworben, um Lieferanten und Kunden dazu zu bringen, Zahlungen auf die Konten der Hacker zu leisten. Die gesamte Operation war hochgradig automatisiert, wobei KI alles vom anfänglichen Auskundschaften bis hin zu den abschließenden Geldwäscheanweisungen verwaltete. Dieser Fall stellt eine besorgniserregende Eskalation der Fähigkeiten von Cyberkriminellen dar. Während staatlich geförderte Hackergruppen schon immer einfallsreich waren, senken KI-Tools die Einstiegshürde für komplexe Angriffe drastisch. Die Autoren des Berichts warnen, dass ähnliche Taktiken wahrscheinlich auch von anderen staatlichen Akteuren und sogar kriminellen Banden übernommen werden. Für Unternehmen ist die Empfehlung klar: Implementieren Sie Nullvertrauen-Sicherheitsmodelle, überprüfen Sie alle Zahlungsanfragen über unabhängige Kanäle und schulen Sie Mitarbeiter darin, die Anzeichen KI-gestützter Social-Engineering-Angriffe zu erkennen.

Noticias relacionadas

Más noticias de IA

AIStart.ai · Tu Launchpad personal de IA