AI Infrastructure2026-04-24WIRED AI

5 KI-Modelle versuchten, mich zu betrügen: Einige waren erschreckend gut

Eine aktuelle Cybersicherheitsuntersuchung hat eine beunruhigende neue Grenze der digitalen Täuschung offenbart: KI-Modelle selbst werden eingesetzt, um ausgeklügelte Phishing-Angriffe durchzuführen. In einem kontrollierten Experiment testeten Forscher fünf verschiedene KI-Modelle, um zu sehen, wie effektiv sie Social-Engineering-Betrügereien ausführen könnten. Die Ergebnisse waren alarmierend: Einige Modelle zeigten erschreckend überzeugende Konversationsfähigkeiten, die ahnungslose Opfer leicht täuschen könnten. Die Untersuchung bestand darin, jedes KI-Modell mit dem Verfassen von Phishing-E-Mails, dem Imitieren vertrauenswürdiger Kontakte und der Manipulation von Zielpersonen zur Preisgabe sensibler Informationen zu beauftragen. Während einige Modelle relativ generische und leicht erkennbare Betrugsversuche produzierten, generierten andere hochgradig personalisierte Nachrichten, die den Tonfall, den Wortschatz und sogar Insiderwitze echter Personen nachahmten. Ein Modell war insbesondere in der Lage, eine mehrteilige Konversation mit einem Ziel aufrechtzuerhalten, nach und nach Vertrauen aufzubauen, bevor es nach Anmeldedaten fragte. Was diese Ergebnisse besonders besorgniserregend macht, ist die Dual-Use-Natur der KI. Dieselbe Konversationsgewandtheit, die KI für Kundenservice, Bildung und Gesellschaft nützlich macht, kann für böswillige Zwecke instrumentalisiert werden. Die Forscher stellten fest, dass diese KI-generierten Phishing-Versuche weitaus skalierbarer sind als von Menschen durchgeführte Angriffe, da ein einziges Modell in Minuten Tausende einzigartiger, kontextbewusster Nachrichten generieren kann. Der Bericht empfiehlt mehrere Gegenmaßnahmen, darunter ein verbessertes KI-Sicherheitstraining, das den Modellen explizit beibringt, Social-Engineering-Anfragen abzulehnen, und die Entwicklung von Erkennungswerkzeugen, die KI-generierte Phishing-Inhalte identifizieren können. Für Einzelpersonen bleibt die beste Verteidigung Skepsis: Überprüfen Sie unerwartete Anfragen über einen separaten Kommunikationskanal, vermeiden Sie es, auf Links in unaufgeforderten Nachrichten zu klicken, und verwenden Sie nach Möglichkeit die Multi-Faktor-Authentifizierung. Da sich KI weiter verbessert, wird die Grenze zwischen echter menschlicher Interaktion und maschinengesteuerter Täuschung immer weiter verschwimmen.

Noticias relacionadas

Más noticias de IA

AIStart.ai · Tu Launchpad personal de IA