IPA 10大脅威2026:「AIリスク」が初の3位ランクイン
IPA(独立行政法人情報処理推進機構)が2026年2月に発表した「情報セキュリティ10大脅威2026(組織編)」において、「AIの悪用によるサイバー攻撃の高度化・増加」が初めてランクインし、即座に3位の位置を占めました。1位のランサムウェア・2位のサプライチェーン攻撃と並んで「AIリスク」が主要脅威として公式に認定されたことは、日本のサイバーセキュリティの歴史において重要な転換点を意味します。
なぜ今、AIリスクがこれほど急速に脅威として顕在化しているのでしょうか。
その根本的な理由は、「攻撃の民主化」です。これまでは高度なサイバー攻撃を実行するためには、専門的なプログラミングスキル・マルウェア作成の知識・ターゲットのリサーチに多大な時間と費用が必要でした。しかし生成AIの普及により、これらの障壁が劇的に下がっています。プロンプトエンジニアリングの知識があれば、高品質なフィッシングメールを数秒で生成したり、既存のマルウェアコードを改変してセキュリティツールによる検知を回避したりすることが、技術的な専門知識のない攻撃者にも可能になりつつあります。
本記事では、2026年に企業が特に警戒すべき「AIが変えた5つの攻撃脅威」を具体的に解説し、防御側の対策についても論じます。
脅威①:生成AIによる精巧パーソナライズドフィッシング
脅威の実態
従来のフィッシングメールは、「日本語が不自然」「宛名が『お客様』など一般的」「文面が大量送信向けで個人化されていない」という特徴から、多くの社員が見分けることができました。しかし生成AIの登場により、この「見分け方」が通用しなくなっています。
攻撃者は生成AIを使って以下のようなプロセスで高精度なスピアフィッシングを実行します。
- OSINT(公開情報調査): LinkedIn・X(旧Twitter)・企業ウェブサイト・採用情報から標的個人の役職・担当業務・趣味・最近の活動を収集する
- 自動生成: 収集した情報をもとに「その人にだけ送られた」と感じさせる文面をAIが自動生成する
- 言語最適化: 自然な日本語(または複数言語)で文体・敬語レベルを最適化する
Proofpoint「2025 State of the Phish」レポートによれば、AI生成フィッシングメールのクリック率は、従来の汎用フィッシングメールと比較して約2〜3倍高い傾向が示されています。
検知が難しい理由
- メール本文の言語品質が人間の作成物と区別がつかない
- 実在する取引先・上司名義を偽装した場合、内容の自然さから疑念を持ちにくい
- 大規模言語モデル(LLM)は一度のプロンプトで何千通ものバリエーションを生成できるため、同一テンプレートベースの検知が機能しない
防御の考え方
技術的な対策としては、メールサンドボックス検査・URLフィルタリング・DMARC/DKIM/SPFの厳格な設定が有効です。しかし技術だけでは限界があるため、人的対策として「メールの内容だけで判断せず、別の通信手段で確認する」というプロセスの確立が重要です。特に送金依頼・アカウント情報の変更依頼については、必ず電話等での確認を義務化することを推奨します。
脅威②:ディープフェイク技術を使った詐欺・なりすまし
脅威の実態
ディープフェイクとは、AIが人物の顔・声をリアルタイムで模倣・生成する技術です。2025年に世界で最も注目を集めたインシデントの一つは、香港での「ディープフェイクCFO詐欺」です。財務担当者がビデオ会議で「自社CFO」と話しているつもりが、全員がAI生成の偽物で、その場の指示に従って約25百万ドル(約37億円)を送金してしまいました。
日本でも2025年以降、経営幹部を装ったディープフェイクビデオ会議による詐欺や、CEO音声を模倣した電話詐欺(ボイスクローニング)の事例が報告されています。
技術の現状
2026年時点では以下の技術が攻撃に活用されています。
- リアルタイム顔入れ替え(Face Swap):ビデオ通話中に別人の顔をリアルタイムで重ねる
- ボイスクローニング:数十秒〜数分の音声サンプルから特定人物の声を再現する
- 文書・映像の偽造:会議の議事録・レポート・証拠映像等の偽造
防御の考え方
- コードワードの設定:重要な意思決定を行うビデオ会議では、事前に設定したコードワードで本人確認を行う
- アウトオブバンド確認:重要な指示(特に送金・アクセス権変更)は、ビデオ会議とは別の確立された通信経路で確認する
- ディープフェイク検出ツールの導入:Microsoft・Intel等が提供するリアルタイムディープフェイク検出ツールの活用を検討する
脅威③:多態型(ポリモーフィック)AIマルウェア
脅威の実態
従来のマルウェアはコードが固定されているため、一度シグネチャ(特徴的なコードパターン)が特定されればEDRやアンチウイルスソフトに検知・ブロックされます。しかしAIを使った多態型マルウェアは、実行のたびに自身のコードを自動的に変異させ、シグネチャベースの検知を回避します。
AIを使った多態型マルウェアの代表例として知られる「BlackMamba」(2023年に研究者が概念実証として開発)は、実行のたびにGPT-4のAPIを呼び出してキーロガーのコードを再生成・変異させることで、検知率ゼロを達成しました。これは概念実証ですが、同様の技術を使った実際のマルウェアが2025年〜2026年に登場し始めています。
検知が難しい理由
- コードが実行のたびに変化するため、シグネチャベースの検知が機能しない
- クラウド上のAIモデルと通信することで、マルウェア自体に「知識」を埋め込む必要がない
- 振る舞いベース(ビヘイビア)の検知でさえ、正常な通信(AI APIへのHTTPS通信)を装うと識別が困難になる
防御の考え方
AIマルウェアへの対策には、従来のシグネチャベースの検知から「振る舞い分析」「異常検知」へのシフトが不可欠です。EDRのAI/ML機能の活用、外部AIサービスへの通信の監視・制限、エンドポイントでの実行環境のゼロトラスト化が有効な対策です。
脅威④:AIエージェントによる自律型攻撃
脅威の実態
2025年から急速に普及が進む「AIエージェント」(人間の指示なしに複数のタスクを自律的に実行するAIシステム)は、攻撃の世界にも応用され始めています。
従来の自動化攻撃ツールは、あらかじめプログラムされた手順しか実行できませんでした。しかしAIエージェントは「状況を判断して最適な次の行動を選択する」能力を持つため、セキュリティ環境を動的に観察しながら最も効果的な攻撃経路を自律的に見つけていきます。
研究段階では、AIエージェントが公開サーバーのCVEを自律的に調査し、エクスプロイトコードを生成・実行して侵入に成功するシナリオが実証されています(Computerworld, 2025)。ペンテスターの役割を果たすAIエージェントが存在するように、攻撃に特化したAIエージェントの実用化は時間の問題です。
防御の考え方
AIエージェントによる攻撃は「高速・自律・継続的」という特性を持つため、人間のスピードで対応することは困難です。防御側も「AIによる防御の自動化」で対抗する必要があります。SOCの検知・対応の自動化(SOAR)の高度化、攻撃への対応時間の短縮が急務です。
脅威⑤:バイブコーディングによる脆弱性の混入
脅威の実態
「バイブコーディング(Vibe Coding)」とは、開発者がAIコーディングアシスタント(GitHub Copilot・Cursor・Claude等)に自然言語でプロンプトを入力し、AIが生成したコードをほとんどレビューせずに本番環境に適用する開発手法です。2025年頃から使われるようになった用語で、AIが生成した「雰囲気(Vibe)」のままコードを書くという意味を持ちます。
バイブコーディングの問題は、AIが生成したコードに含まれる脆弱性や悪意あるコード(サプライチェーン攻撃によって汚染されたコードリポジトリから学習した内容など)がそのままシステムに組み込まれるリスクです。
2025年のセキュリティ研究では、AIコーディングアシスタントが生成したコードの約40%に少なくとも1つのセキュリティ脆弱性が含まれているという調査結果が発表されています(Stanford University, 2025)。
具体的なリスク
- インジェクション脆弱性の混入:SQLインジェクション・コマンドインジェクション等の古典的脆弱性がAI生成コードに混入
- 安全でない依存関係の使用:脆弱なOSSライブラリのバージョンを指定したコードの生成
- 認証・認可の不備:認証チェックが不完全なAPIエンドポイントの生成
- プロンプトインジェクション攻撃:AIエージェントが組み込まれたシステムへの悪意ある入力による意図しない動作
防御の考え方
バイブコーディングリスクへの対策には、以下が有効です。
- AI生成コードの必須レビュープロセスの確立
- SAST(静的アプリケーションセキュリティテスト)のCI/CDパイプラインへの組み込み
- Web/APIアプリケーションの定期的な脆弱性診断の実施
サプライチェーン経由のソフトウェア汚染については、サプライチェーン攻撃とは?2025年の国内事例と企業が取るべき対策もご参照ください。
防御側のAI活用:SOCトリアージ自動化と異常検知
攻撃者がAIを活用するなか、防御側もAIを最大限に活用した対策体制の構築が必要です。
SOCトリアージの自動化
SOC(セキュリティオペレーションセンター)には毎日数万件にのぼるセキュリティアラートが発生します。その多くは誤検知(False Positive)であり、熟練アナリストの調査時間を浪費します。AIを使ったトリアージ自動化により、アラートを自動的に優先度付け・分類し、本当に調査すべきインシデントをアナリストに提示することで、対応速度と精度を向上させます。
Microsoft Sentinelに組み込まれた「Microsoft Copilot for Security」やCrowdStrikeの「Charlotte AI」など、主要なセキュリティプラットフォームがAIアシスタントを提供しており、インシデントの要約・影響範囲の推定・対応手順の提案を自動化しています。
AIを使った異常検知(UEBA)
UEBA(User and Entity Behavior Analytics)は、ユーザー・デバイス・アプリケーションの「正常な行動パターン」をAIが学習し、そこからの逸脱を異常として検知する技術です。例えば「普段は東京からログインする社員が、突然海外IPからアクセスした」「深夜2時に大量のファイルをダウンロードした」といった異常を、ルールベースでは捉えられないパターンで検知できます。
AIによる異常検知は、多態型マルウェアや内部不正など、シグネチャベースの検知が通用しない脅威への有効な対策です。
企業が今すぐできる7つの対策
IPA・NIST・経産省の各ガイドラインを踏まえ、AI脅威への実践的な対策をまとめます。
- 多要素認証(MFA)の全社必須化:フィッシングで認証情報が窃取されても、MFAがあれば不正ログインを阻止できます。
- 重要指示の確認プロセスの確立:メール・ビデオ会議での送金指示は、別経路での確認を義務化します。
- 標的型メール訓練の高度化:AI生成フィッシングシナリオを使った訓練に移行し、社員の識別能力を高めます。
- AI生成コードのセキュリティレビュー強化:SAST/DASツールのCI/CDへの統合とコードレビュープロセスの必須化。
- EDR/XDRのAI機能の最大化:既存セキュリティ製品のAI/ML機能が有効化されているか確認します。
- SOCの自動化レベルの向上:アラートのトリアージ自動化・プレイブックの整備で対応速度を高めます。
- ゼロトラストアーキテクチャへの移行:「信頼しない・常に検証する」原則のもとで、AI自律攻撃への耐性を高めます。
フィッシング訓練の実施方法については、標的型メール訓練の費用相場と効果的な実施方法【2026年版】もご参照ください。
よくある質問(FAQ)
Q1. AIサイバー攻撃は大企業だけが標的になりますか?
A. いいえ、むしろAIの活用により攻撃のコストが下がっているため、従来は費用対効果が合わなかった中小企業も標的になりやすくなっています。AI生成フィッシングや自動化された脆弱性スキャンは、組織規模にかかわらず実行できます。
Q2. ディープフェイクを見破ることはできますか?
A. 現時点では完全に見破ることは困難です。Microsoft・Intel・Googleなどがディープフェイク検出ツールを開発していますが、検出精度と偽造技術は常にいたちごっこの関係にあります。技術的な検出に依存するのではなく、「重要な判断を下す際のプロセス」(確認手順・コードワード等)を整備することがより確実な対策です。
Q3. AIによるサイバー攻撃に関する国際的な規制はありますか?
A. EUのAI法(EU AI Act、2024年発効)ではAIシステムのリスク分類と規制が定められていますが、攻撃目的のAI活用に対する国際的な規制は発展途上です。NATOやG7のサイバーセキュリティ協力枠組みでAI活用攻撃への対応が議論されていますが、実効的な国際規範の形成には時間がかかる見通しです。
Q4. 小規模なIT部門でもAIを使った防御は可能ですか?
A. 可能です。Microsoft 365 Defender・CrowdStrike Falcon・SentinelOne等の主要セキュリティ製品にはAI/ML機能が組み込まれており、大規模なSOCチームがなくても活用できます。また、MicrosoftのCopilot for Securityなどは自然言語でセキュリティ調査を行えるため、専門知識の壁を下げています。
Q5. バイブコーディングのリスクは開発部門だけの問題ですか?
A. いいえ、開発部門が作成したコードは最終的に本番システムとして運用されるため、セキュリティ部門・IT部門全体に影響します。また、業務部門が「ノーコード・ローコードツール」でAI生成のアプリケーションを作成する「シャドーIT」的な状況も生じており、全部門が関係するリスクです。
Q6. AI生成フィッシングに対して、フィルタリングは有効ですか?
A. 従来のルールベース・シグネチャベースのフィルタリングだけでは限界があります。しかしAIを使ったメールセキュリティ製品(Proofpoint・Abnormal Security等)は、メールの「行動パターン」「送信元の評判」「本文の意味的異常」をAIで分析するため、AIフィッシングに対してある程度の有効性を持ちます。
Q7. 2026年以降、AI攻撃はさらにどう進化しますか?
A. 最も警戒すべきシナリオは「完全自律型攻撃エージェント」の実用化です。AIが偵察・侵入・ラテラルムーブメント・データ窃取を人間の介入なしに完遂する能力を持つようになると、現在の防御体制の根本的な見直しが必要になります。研究機関の間では2027〜2028年頃に実用レベルになるという予測もあります。
AI攻撃への防御能力を継続的に検証する手段として、BAS(侵害シミュレーション)が注目されています。攻撃シナリオを最新の脅威に合わせて更新できるため、AIマルウェア・自律型攻撃への対応力を定量評価できます。
まとめ
AIはサイバー攻撃のコストを下げ、品質を上げ、スピードを加速させました。2026年は「AIリスク元年」として記憶される年になるかもしれません。企業がすべき対応は以下の3点です。
- 脅威を正確に理解する:5つの脅威(精巧フィッシング・ディープフェイク・多態型マルウェア・AI自律攻撃・バイブコーディング)のそれぞれのリスクを経営層・現場の両方で共有する
- 防御にもAIを活用する:SOCトリアージ自動化・AI異常検知・MFAの組み合わせで、攻撃側のAI活用に対抗する
- プロセスを強化する:「メール・ビデオ会議での重要指示の確認プロセス」「AI生成コードのレビュープロセス」など、技術だけでは守れないリスクをプロセスで補完する
AEVUSでは、AI時代の脅威に対応したSOCサービス・ペネトレーションテスト・Web/Mobile脆弱性診断・BASサービスを提供しています。自社のセキュリティ体制がAI時代の脅威に対応できているか評価したい企業は、ぜひAEVUSにご相談ください。