AIが攻撃を加速し、AIが穴を増やしている。サイバー攻撃が止まらない構造的な理由
AIでマルウェアのコストが95%下がった。AIで書いたコードの45%に脆弱性がある。攻撃側と防御側の両方でAIが作用した結果、サイバー攻撃は加速している。データで追いました。
コラム
kkm
Backend Engineer / AWS / Django
攻撃が増えている。数字で見ると異常なペース
3月だけで7社がランサムウェア被害を公表したという記事を書いたばかりですが、これは日本だけの話ではありません。グローバルで見ると、ランサムウェアのリークサイトに掲載された被害者数は2023年の約4,560件から2025年には7,419件に増えています。前年比+34%。日本国内でも警察庁の統計で2022年から220件前後の高止まりが続いています。
同時に、脆弱性(CVE)の登録件数も加速しています。2021年に約20,000件だったものが、2024年には40,308件。前年比+39%の急増です。
攻撃が増え、穴も増えている。なぜ同時に起きているのか。私はこの2つの加速に共通する要因があると考えています。AIです。
攻撃側: AIで「作る」ハードルが消えた
2024年9月、HP Wolf Securityのチームが野外でAI生成マルウェアを初めて確認しました。VBScriptとJavaScriptで書かれたドロッパーで、全行にフランス語のコメントが付いていた。プログラミングの専門知識がない人間が、母国語でAIに指示してマルウェアを作った痕跡です。
2026年にはCheck Pointが「VoidLink」というスパイウェアフレームワークを報告しています。開発期間は約1週間。コードは88,000行超。AIアシスタント(TRAE AI)が生成したことを示すタイムスタンプ付きのスプリント文書が流出しており、カーネルレベルのルートキットやクラウド列挙モジュールまで備えていました。1人の人間が1週間で、です。
OpenAI自身も2025年2月の報告で、40件以上の悪意あるネットワークを遮断したと発表しています。イランの脅威アクター「Storm-0817」はAndroidマルウェアのデバッグにChatGPTを使い、北朝鮮のKimsukyグループは偽の軍IDカード画像を生成していました。
CrowdStrikeの2026年レポートはこの変化を数字で示しています。AI活用型の攻撃は前年比+89%。侵入から横展開までの時間(ブレークアウトタイム)は平均29分で、前年より65%速くなりました。最速の観測値は27秒です。
フィッシングも変わりました。Harvard Business Reviewの調査をRapid7が引用したところによると、AIはフィッシングのコストを最大95%削減した。オックスフォード大学の研究では、AI生成フィッシングメールのクリック率は従来型より60%高いとされています。つまり安くて、しかも効く。
防御側: AIで書いたコードが穴だらけ
攻撃側だけではありません。守る側のシステムにも、AIは影響を与えています。ただし、悪い方向にです。
Veracodeが100以上のAIモデルを対象に調査した結果、AI生成コードの45%にセキュリティ上の欠陥がありました。Javaに限れば72%。XSS(クロスサイトスクリプティング)の脆弱なコードは86%の確率で生成されます。しかもこの数字は「過去2年間ほぼ変わっていない」。モデルが賢くなっても、セキュリティは改善されていないのです。
ApiiroがFortune 50企業を含む数万リポジトリを分析したデータはさらに露骨です。AIアシストの開発者はコミット数が3〜4倍に増えた一方で、セキュリティ上の問題は10倍に増えた。速く書けるようになった分、穴も量産している。
ジョージタウン大学CSETの調査では、GitHub Copilotが生成した1,689プログラムのうち約40%がCWE Top 25(最も危険な脆弱性25種)に該当していました。ChatGPTで生成した21プログラムのうち、初期段階で安全だったのは5件だけです。
Stack Overflow Developer Survey 2025によれば、開発者の84%がAIコーディングツールを使っており、51%が毎日使っています。このツールが生成するコードの半分近くに脆弱性がある。もはや「一部の開発者の問題」ではなく、業界全体の話です。
AIが作った新しい攻撃ベクター「Slopsquatting」
AIが生む脆弱性の中でも、特に厄介なのがSlopsquatting(スロップスクワッティング)です。
AIにコードを書かせると、存在しないパッケージ名を「ハルシネーション」で生成することがあります。USENIX Security 2025で発表された論文によると、16のLLMで576,000のコードサンプルを調べたところ、19.7%が実在しないパッケージを参照していました。
攻撃者はこれを逆手に取ります。AIが頻繁にハルシネーションする架空のパッケージ名を先回りしてnpmやPyPIに登録し、中に悪意あるコードを仕込んでおく。開発者がAIの出力をそのままpip installすると、マルウェアが入る。
Aikido Securityの実証実験では、存在しないhuggingface-cliというパッケージ名をPyPIに空ファイルで登録したところ、3ヶ月で30,000件以上ダウンロードされました。ほぼ全てがAIエージェントと開発者からの自動インストールです。
これはAI以前には存在しなかった攻撃です。人間がコードを書いていた時代、存在しないパッケージ名をタイプすることはほとんどなかった。AIが「もっともらしい嘘」をつく性質が、そのままセキュリティホールになっている。
数字を並べてみると、時期が重なっている
ここまでのデータを年表にしてみます。
| 年 | AIの普及 | CVE登録件数 | ランサムウェア 被害者数 |
|---|---|---|---|
| 2021 | Copilotプレビュー | 20,153 | — |
| 2022 | Copilot GA、 ChatGPT公開 | 25,084(+24%) | — |
| 2023 | GPT-4、 ChatGPT 1億人 | 29,066(+16%) | 約4,560 |
| 2024 | ChatGPT 1.8億人、 Copilot 2000万人 | 40,308(+39%) | 5,243(+15%) |
| 2025 | ChatGPT 6億人 | 48,099(途中) | 7,419(+34%) |
CVEの急増が始まった2022年は、GitHub CopilotとChatGPTが公開された年です。2024年の+39%という異常な伸びは、AIコーディングツールが開発現場に定着した時期と一致しています。ランサムウェア被害者数も2024年以降に再加速しています。
ただし正直に書いておくと、これは「相関」であって「因果」ではありません。CVE急増の主因はWordPressプラグインやOSS周りの報告体制の変化だという分析もあります。Verizonの2025年DBIRは「AIの影響はまだ革命的とは言えない」と慎重な評価をしています。
しかし私は、この「相関」を偶然で片付けるのは楽観的すぎると思っています。攻撃側ではAIがマルウェア作成のコストを劇的に下げ、防御側ではAIが脆弱なコードを量産している。両方が同時に起きているのだから、攻撃が増えるのは当然の帰結ではないか。証明はまだでも、構造的な説明としては筋が通っています。
AIは「両面の刃」ではない。片面だけよく切れる
「AIは攻撃にも防御にも使える、両刃の剣だ」とよく言われます。でも現実にはそう均等に切れていません。
攻撃側にとって、AIは最高の部下です。指示すれば文句も言わずにフィッシングメールを100言語で生成し、マルウェアのバリエーションを無限に作り、脆弱性を自動でスキャンしてくれる。倫理的な迷いもなければ、残業代も発生しない。
防御側はどうか。AIでセキュリティ監視を自動化する製品は増えています。でも、企業がそれを導入するには予算の承認が必要で、導入後のチューニングに数ヶ月かかり、誤検知に疲弊したチームがアラートを無視し始める。組織というものは、新しいツールを使いこなすのに時間がかかります。
攻撃者は1人でAIを使い始められる。防御側は組織として対応しなければならない。このスピードの非対称性が、AIの恩恵を攻撃側に偏らせています。
では何ができるのか
AIの恩恵が攻撃側に偏っている構造はすぐには変わりません。それでも、いくつかの対策は効果があると考えます。
まず、AI生成コードを信用しないことです。Copilotが書いたコードだろうと人間が書いたコードだろうと、セキュリティレビューの基準は同じであるべきです。むしろAI生成コードのほうがレビューを厳しくすべきだという研究結果が出ている以上、「AIが書いたから大丈夫」という空気は危険です。
次に、パッケージの依存関係を人間が確認すること。pip installやnpm installの前に、そのパッケージが本当に存在するのか、メンテナは誰なのか、ダウンロード数はどれくらいか。Slopsquattingはこの確認を怠った瞬間に刺さります。
そして、攻撃側がAIを使っている前提で防御を設計すること。フィッシングメールはもう「日本語が不自然だから見分けられる」時代ではありません。AI生成の完璧な日本語で、あなたの取引先を装ったメールが届きます。技術的な防御(多要素認証、ゼロトラスト設計、VPN機器のパッチ管理)で人間の判断に頼る部分を減らすしかない。
AIはサイバーセキュリティの均衡を壊しました。攻撃のコストを下げ、システムの穴を増やし、そのどちらも加速し続けている。この構造を理解した上で、少なくとも「穴を増やす側」は自分たちでコントロールできるはずです。AIに書かせたコードの品質は、使う側の問題なのだから。
参照元
- • CrowdStrike 2026 Global Threat Report
- • HP Wolf Security: AI生成マルウェアの野外確認(2024年9月)
- • Check Point Research: VoidLink(2026年)
- • OpenAI 脅威インテリジェンスレポート(2025年2月)
- • Veracode GenAI Code Security Report
- • Apiiro: 4x Velocity, 10x Vulnerabilities
- • Georgetown CSET: Cybersecurity Risks of AI-Generated Code
- • Snyk: Slopsquatting(USENIX Security 2025論文)
- • Aikido Security: Slopsquatting実証実験
- • Industrial Cyber: 2025年ランサムウェア統計
- • CVE Details: 年別CVE登録件数
- • Verizon 2025 Data Breach Investigations Report
- • Rapid7: LLMs Are Redefining the Cybercrime Landscape
- • YesWeHack: CVE Surge分析