Webエンジニア向けプログラミング解説動画をYouTubeで配信中!
▶ チャンネル登録はこちら

【ITニュース解説】Generative and Predictive AI in Application Security: A Comprehensive Guide

2025年09月18日に「Dev.to」が公開したITニュース「Generative and Predictive AI in Application Security: A Comprehensive Guide」について初心者にもわかりやすく解説しています。

作成日: 更新日:

ITニュース概要

AIがアプリのセキュリティを大きく変えている。AIは脆弱性の発見、テストの自動化、攻撃の予測に活用され、守りを強化する。誤検知や未知の脅威への対応は課題だが、自律的に動くAIエージェントの登場で、将来はさらにセキュリティ対策が自動化される見込みだ。

ITニュース解説

アプリケーションセキュリティ(AppSec)は、ソフトウェアの開発段階から稼働後まで、セキュリティ上の問題がないかを検査し、安全を確保する活動である。近年、このAppSecの分野で人工知能(AI)が大きな注目を集めている。AIは、アプリケーションの脆弱性を早期に発見し、テストを自動化し、悪意のある活動を自律的に検出することで、ソフトウェアの安全性を大幅に向上させている。

AIが流行する以前から、セキュリティ専門家は脆弱性の特定を自動化しようと試みてきた。1980年代後半には、プログラムにランダムなデータを送り込み、クラッシュするかをテストする「ファジング」という手法が考案された。1990年代から2000年代初頭にかけては、コード内の危険なパターンを見つける静的解析ツールが登場したが、文脈を考慮しないため誤検知が多かった。

2000年代半ばから2010年代にかけて、セキュリティツールは厳格なルールベースから、データ駆動型アルゴリズムへと進化し、文脈を理解するようになった。この時期、ネットワークの異常検出やスパム対策に深層学習モデルが使われ始めた。「コードプロパティグラフ(CPG)」という概念も登場し、コードの構文、実行順序、データフローを統合したグラフ構造で、複雑な脆弱性を特定できるようになった。2016年には、DARPA主催の「サイバー・グランド・チャレンジ」で、人間を介さずに脆弱性を発見・修正する完全自動ハッキングシステムが優勝し、自動サイバーセキュリティの画期的な出来事となった。

近年では、Exploit Prediction Scoring System(EPSS)のように、多数のデータからどの脆弱性が実際に悪用される可能性が高いかを予測し、セキュリティ担当者の優先順位付けを支援するAIが登場している。また、大規模言語モデル(LLM)を使って新しいテストケースを自動生成し、脆弱性発見能力を高める事例も増えている。

今日のAppSecでは、AIは「生成AI」と「予測AI」の二つの主要な形で活用されている。生成AIは、新しい攻撃データやエクスプロイトスクリプトを自動生成し、ファジングの効果を大幅に向上させる。従来のランダムなファジングと異なり、より的確なテストデータを生み出し、多くのバグ検出を可能にする。また、生成AIは、既知の脆弱性に対する概念実証(PoC)エクスプロイトコードの作成も支援し、防御側のテストやパッチ作成に貢献する。

予測AIは、膨大なデータを分析して潜在的なバグを特定し、ルールベースでは見逃されがちなパターンを学習する。これにより、疑わしいパターンにラベル付けしたり、新しく見つかった問題のリスクを評価したりできる。予測AIは、EPSSのように脆弱性の悪用可能性に基づいて優先順位を付けることで、セキュリティチームが最もリスクの高い脆弱性に集中できるようにする。

AIは、静的アプリケーションセキュリティテスト(SAST)、動的アプリケーションセキュリティテスト(DAST)、インタラクティブアプリケーションセキュリティテスト(IAST)といった主要なセキュリティテスト手法も強化している。SASTでは誤検知を削減し、実際に悪用可能な脆弱性のみを特定する。DASTでは、複雑なワークフローや単一ページアプリケーションにも対応し、テストカバレッジを向上させる。IASTでは、大量の監視データから脆弱なデータフローを特定し、無関係なアラートを削減する。現代のコードスキャンツールは、単純なパターンマッチング、専門家が定義したルール、そしてCPGとAIを組み合わせることで、より高精度な脆弱性検出を実現している。

コンテナ技術の普及に伴い、コンテナやソフトウェアサプライチェーンのセキュリティも重要になっている。AIは、コンテナイメージ内の脆弱性や設定ミスを特定し、実行時の異常な動作を検出する。また、オープンソースパッケージの数が膨大になる中で、AIは悪意のあるパッケージを特定したり、コンポーネントが侵害される可能性を評価したりすることで、サプライチェーンのリスク管理を支援する。

しかし、AIはAppSecに強力な能力をもたらす一方で、課題も抱えている。誤検知と見逃しの問題は依然として存在し、AIが検出した問題が実際に悪用可能かどうかを判断するのは難しい。AIモデルは過去のデータから学習するため、データに偏りがある場合、特定の脆弱性しか認識できなかったり、新しい脅威を見逃したりする可能性がある。そのため、人間による監督と、多様なデータセットを用いた継続的な再学習が不可欠である。攻撃者が防御システムを欺くために使う「敵対的AI」も新たな脅威となっている。

AIコミュニティで最近注目されているのが「自律型AIエージェント」である。これは、自律的に目標を設定し、複数のステップを含むタスクを実行できるインテリジェントなプログラムである。AppSecにおいては、人間による介入を最小限に抑えつつ、リアルタイムの状況に適応して多段階のプロセスを制御できるAIを意味する。自律型AIは、攻撃側のレッドチーム演習を自律的に実行したり、防御側でネットワークを監視し、不審なイベントに対して自動的に対応したりできる。しかし、自律性が高まることにはリスクも伴うため、包括的な安全策や、リスクの高いタスクに対する人間による承認は不可欠である。

アプリケーションセキュリティにおけるAIの役割は今後も拡大するだろう。今後数年間で、開発者向けの統合開発環境(IDE)にはLLM駆動のAppSec評価が組み込まれ、リアルタイムで潜在的な問題を指摘するようになる。自律型AIによる継続的なセキュリティテストは標準となり、サイバー犯罪者も生成AIを悪用するようになるため、防御側のAIフィルターもそれに対応して進化する必要がある。

5年から10年後には、AIはソフトウェア開発全体を根本的に変革する可能性がある。人間とAIが共同でコードを書き、最初からセキュリティが組み込まれる「AI拡張開発」が進むかもしれない。脆弱性を検出するだけでなく、自律的に修正し、その安全性を検証するツールも登場するだろう。アプリケーションを24時間監視し、攻撃を予測し、リアルタイムで防御策を展開する「プロアクティブで継続的な防御」も実現する可能性を秘めている。

AI自体の規制も進み、重要な産業におけるAIの利用に関する透明性や監査基準が求められるようになる。また、AIがサイバー防御の中心となるにつれて、コンプライアンスフレームワークも進化し、AIを活用した自動コンプライアンスチェックや、AIモデルのガバナンス(訓練データの追跡、モデルの公平性の証明、AIの意思決定記録)が義務付けられる可能性がある。自律システムが防御行動を取った場合の責任の所在も、法的な課題となるだろう。倫理的な問題も浮上し、AIによる行動分析はプライバシーの懸念を引き起こす可能性がある。また、攻撃者は敵対的AIを用いて防御システムを回避しようとするため、トレーニングデータのセキュリティ確保はAppSecの将来において不可欠な側面となる。

機械学習とAIは、ソフトウェアの防御を根本的に変革し始めている。AIは、脆弱性を早期に発見し、最大の脅威に優先順位を付け、複雑なタスクを自動化することで、防御側にとって強力な味方となる。しかし、AIは完璧ではなく、誤検知、バイアス、そして新しい種類のエクスプロイトに対しては、熟練した人間の監視が依然として必要である。攻撃者と防御者の間のサイバーセキュリティの「軍拡競争」は続いており、AIはその最新の戦場である。AIを責任ある形で活用し、専門家の分析、堅牢なガバナンス、継続的な更新と組み合わせる組織こそが、進化し続けるアプリケーションセキュリティの世界で優位に立つことができるだろう。

関連コンテンツ

関連IT用語

【ITニュース解説】Generative and Predictive AI in Application Security: A Comprehensive Guide | いっしー@Webエンジニア