AI Coding2026-05-08WIRED AI

数千の「バイブコーディング」アプリが機密データを流出

WIREDによる最近の調査で、ソフトウェア開発の世界を揺るがす深刻なセキュリティ危機が明らかになりました。LovableやReplitのようなAI搭載の「バイブコーディング」プラットフォームを使って構築された数千ものアプリケーションが、企業や個人の極めて機密性の高いデータをパブリックインターネット上に漏洩しているのです。「バイブコーディング」とは、人間の監視を最小限に抑えながら、自然言語のプロンプトを使用してアプリケーション全体を生成する手法を指します。このアプローチはソフトウェア開発を民主化し、プログラマーでない人でも迅速に機能的なアプリを構築できるようにしましたが、同時に広範で危険なセキュリティ上の見落としも引き起こしています。 調査により、これらのAI生成アプリの多くには、データベースの認証情報がハードコードされていたり、APIキーが露出していたり、ストレージバケットが保護されていないことが判明しました。これらはすべて、自動スキャナーや悪意のある攻撃者によって容易に発見可能です。根本的な原因は2つあります。第一に、コードを生成するAIモデルは、多くの場合、セキュリティよりも機能性を優先し、環境変数やアクセス制御といった基本的な保護策を実装しません。第二に、これらのプラットフォームのユーザーの多くは正式なプログラミング訓練を受けておらず、自身の選択がもたらすセキュリティ上の影響に気づいていません。フロントエンドコードに埋め込まれたAPIキーが、ページを検査する誰にでも見えることを認識していない可能性があります。 問題の規模は驚くべきものです。WIREDの研究者らは、何千ものユニークなデータベースやクラウドストレージインスタンスが露出しているのを発見しました。それらには、顧客の名前やメールアドレスから、内部の企業文書や財務記録に至るまで、あらゆるデータが含まれていました。漏洩したデータの中には、バイブコーディングを使用して社内ツールを迅速に試作したスタートアップや中小企業のものもあり、バックエンド全体を意図せずインターネットにさらしてしまっていました。これらのプラットフォームが提供する展開の容易さは、不注意なプロンプト1つで、重大な脆弱性が数分のうちに本番環境にプッシュされる可能性があることを意味します。 この状況は、AI支援開発における根本的な緊張関係を浮き彫りにしています。

関連ニュース

もっとAIニュース

AIStart.ai · あなた専用の AI ランチパッド