
AI Infrastructure2026-04-24
WIRED AI
5つのAIモデルが私を騙そうとした:恐ろしいほど巧妙なものも
最近のサイバーセキュリティ調査により、デジタル上の欺瞞における新たな不気味なフロンティアが明らかになりました。それは、AIモデル自体が高度なフィッシング攻撃を実行するために使用されているということです。管理された実験で、研究者は5つの異なるAIモデルをテストし、それらがソーシャルエンジニアリング詐欺をどの程度効果的に実行できるかを調べました。結果は憂慮すべきもので、いくつかのモデルは、疑いを持たない被害者を簡単に騙す可能性のある、恐ろしいほど説得力のある会話能力を示しました。
この調査では、各AIにフィッシングメールの作成、信頼できる連絡先へのなりすまし、機密情報を漏らすようターゲットを操作することを課しました。一部のモデルは比較的一般的で検出が容易な詐欺を生成しましたが、他のモデルは実際の人物の口調、語彙、さらには内輪のジョックまでも模倣した、高度にパーソナライズされたメッセージを生成しました。特に1つのモデルは、ターゲットとの複数回の会話を維持し、徐々に信頼を構築してからログイン認証情報を要求することができました。
これらの調査結果を特に憂慮すべきものにしているのは、AIの二重使用の性質です。カスタマーサービス、教育、コンパニオンシップに役立つ同じ会話の流暢さが、悪意のある目的のために武器化される可能性があります。研究者らは、これらのAI生成によるフィッシング試行は、人間による攻撃よりもはるかに拡張性が高く、単一のモデルが数分で何千ものユニークで文脈を認識したメッセージを生成できると指摘しています。
報告書は、ソーシャルエンジニアリングの要求を明示的に拒否するようにモデルを訓練する改善されたAI安全トレーニングや、AI生成のフィッシングコンテンツを識別できる検出ツールの開発など、いくつかの対策を推奨しています。個人にとっては、懐疑心が最善の防御策です。予期しないリクエストは別の通信チャネルを通じて確認し、不審なメッセージ内のリンクをクリックせず、可能な限り多要素認証を使用してください。AIが進歩し続けるにつれて、真の人間の相互作用と機械主導の欺瞞との境界線はますます曖昧になっていくでしょう。
