ChatGPT・生成AIを悪用したサイバー攻撃の現状と企業の対策

ChatGPT・生成AIを悪用したサイバー攻撃の現状と企業の対策

ChatGPTなどの大規模言語モデル(LLM)の登場により、攻撃者がより精巧なフィッシングメール、ソーシャルエンジニアリングを大規模に実行することが可能になりました。企業のセキュリティ対策にとって、生成AIを悪用する新しい攻撃形態への対応は、2026年の急務となっています。

生成AIが変えたサイバー脅威環境

生成AIの急速な普及により、攻撃者のコストと時間的制約が大きく低下しました。従来は、フィッシングメールを企画・執筆・送信する過程で相応の手間と知識が必要でしたが、今は自然な日本語のメール文面をAIに生成させることで、数分で数千件のメールを準備できるようになったのです。

また、個人情報の窃取やマルウェア開発についても、攻撃者が生成AIに質問することで技術情報を容易に得られるようになり、従来は特殊な知識が必要だった攻撃も、より多くの攻撃者が実行可能になりました。

実際の攻撃事例

精巧なフィッシングメール

某製造業企業では、生成AIで作成された自然な日本語のフィッシングメールが従業員に大量に届きました。従来のフィッシングメールより違和感が少なく、見分けるのが難しくなっているという報告が相次いでいます。

A社の事例では、同社の経営者を装ったメール(ビジネスメール詐欺=BEC)が送付され、経理担当者が不正送金を実行してしまいました。メール文面の違和感が少なく、経営者の指示と疑わずに処理が進んだと考えられます。

AIを用いたソーシャルエンジニアリング

チャットボットやチャットツール経由での巧妙な詐欺が増えています。攻撃者が生成AIを使い、相手を信頼させるような自然な会話を長時間継続することで、従業員の警戒心を弱めた後に秘密情報を引き出すという手口です。

これまでのフィッシングメール(一度の接触)と異なり、複数回の対話を通じた段階的な信頼構築が可能になったことが、新しい脅威を生み出しています。

生成AIを悪用した攻撃の特性

特性 従来の攻撃との違い 企業への影響
自然な文面作成 メール検出フィルタが見落としやすい 技術的防御だけでは検出困難
大規模・低コスト 数千~数万件のメールを短時間作成可能 従業員全体への影響度が大きい
組織に特化したカスタマイズ 組織のビジネスモデルなど公開情報から攻撃メールを生成 より現実的な詐欺メールになる
対話型の攻撃 単発のメール送信ではなく、継続的な信頼構築 警戒心の低下から被害発生まで時間がかかり発見遅延

企業の防御対策

技術的対策の進化

メールゲートウェイのベンダーは、生成AIで作成されたメールの検出精度を向上させるための機械学習モデルの更新を続けています。ただし、AIが作成したメールとAIが検出するメールという「AIと対AIの競争」になる傾向があり、完全な検出は今後も難しくなると考えられます。

このため、技術対策だけではなく、人的な判断力の強化が一層重要になります。

従業員教育の強化

生成AI時代の研修では、従来のフィッシング対策に加えて、新しい手口(対話型詐欺、SNS経由の接触など)を意識させることが必要です。

重要なのは「完全に見破ることは難しい」という認識を共有することです。見破れないメールもあるという前提で、疑わしい場合は必ず報告する、高額な支払い指示は直接電話で確認するといった行動フローを定着させることが有効です。

標的型メール訓練の高度化

訓練用の疑似メールも、生成AIで多様で自然なシナリオを作成することが可能になりました。訓練サービスベンダーの中には、AIで生成された多様なシナリオを従業員に送付する試みを始めている企業もあります。

訓練の頻度と多様性を高めることで、新しい攻撃形態への耐性を継続的に強化することができます。

組織的な対策

生成AIを悪用した攻撃は、単一の従業員の判断ミスだけでなく、組織の確認フロー不備や意思決定プロセスの脆弱性を狙うケースが増えています。

高額な支払い指示の場合、複数の部門による確認(発信元確認、金額の妥当性確認など)、承認フロー多段階化、CFOやCEOへの事前確認といった牽制機制を整備することが有効です。

生成AI時代のインシデント対応

仮にAIを使った詐欺メールから被害が発生した場合、初動対応が重要です。不正送金の場合、振込先銀行への直ちの連絡が被害回避の鍵となります。

また、被害企業が「どのような手法で騙されたか」を詳細に分析することで、組織全体のセキュリティ認識向上につながります。被害を隠蔽するのではなく、学習の機会として活用するという組織文化が重要です。

よくある質問

生成AIを使ったフィッシングメールは完全に防ぐことは可能ですか?
いいえ。テクノロジー的な防御だけでは限界があります。従来のシグネチャやスパムフィルタに加えて、機械学習による異常検知技術が有効ですが、攻撃者もAIの検出回避をAIで模索するため、完全な防止は難しくなります。そのため、従業員の判断力強化と組織的な確認フロー整備が不可欠です。
生成AIを使った攻撃かどうかは、企業側で判断できますか?
送信メールだけからは区別が難しい場合が多いです。違和感のない自然な日本語であることが、AIによる作成の可能性を示唆しますが、確実な判定には自然言語処理の技術を用いた分析が必要です。疑わしいメールがあれば、IT部門やセキュリティ部門に相談して分析してもらうことをお勧めします。
標的型メール訓練の内容も更新する必要がありますか?
はい。訓練は年2~4回の実施が推奨されていますが、その内容を「生成AI時代の新しい手口」にシフトさせることが重要です。見破りやすい古い手口に対する訓練より、実際に増加している自然な詐欺メール、対話型詐欺のシナリオを含めることで、組織の実践的な防御力が高まります。
生成AI自体の利用は制限すべきですか?
生成AIは効率化ツールとして有益であり、完全な制限は現実的ではありません。重要なのは適切な利用ポリシー(機密情報を入力しない、外部ツール利用時の承認フロー)を整備することです。禁止するのではなく「安全な使い方」を教育する方針が、長期的な企業セキュリティを支えます。
小規模企業では対策が難しいのではないでしょうか?
規模に関わらず、基本的な対策の優先順位は変わりません。少なくとも、全従業員への年1回のセキュリティ研修(生成AI時代の新手口を含める)、高額支払い指示の確認フロー整備、標的型メール訓練の実施は現実的です。これらだけでも、組織のリスク大幅低減につながります。

まとめ

生成AIの悪用は、サイバー脅威の新たなフロンティアです。技術的対策の進化と同時に、従業員の判断力強化と組織的な確認フロー整備により、多層的な防御を構築することが、生成AI時代の企業セキュリティを実現する鍵となります。

攻撃者がAIを使う時代だからこそ、企業もAIを防御に活用しつつ、人間にしかできない判断と確認フロー構築に力を入れることが重要です。

参考:JPCERT/CC サイバー脅威ニュース、NIST AI Risk Management Framework、企業セキュリティ担当者へのヒアリング(2026年3月時点)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

MENU