コラム

Column

導入事例

Case Study

サイバーニュース

Cyber News

海外のサイバーセキュリティ関連のニュースを日本語でご紹介しています。

お知らせ

News

AIが変えつつある「攻撃の現場」と、私たちが向き合うべき現実

ペネトレーションテストの現場にいると、数年前とは明らかに空気が変わったと感じる瞬間があります。
攻撃の手法そのものが劇的に変わった、というよりも──「考えるスピード」と「試せる回数」が、完全に別次元に入った。そんな感覚です。

その背景にあるのが、生成AIやLLM(大規模言語モデル)の存在です。
最近、Bugcrowdで公開されていた Inside the Mind of a Hacker という調査レポートを読みながら、これまでの現場経験と重なる部分が多いと感じました。

私は攻撃者ではなく、あくまで予防・診断の立場にいますが、だからこそ「攻撃者がどう変わりつつあるのか」を正確に理解しておく必要があると考えています。

攻撃者の思考を“補助”するAI

※生成AIが一般的なコード構造を返す例であり、実運用や攻撃を推奨するものではありません。

AIが自律的にハッキングを行う、という表現は少し誇張があります。
実際のところ、AIは意思を持って攻撃する存在ではありません。

ただし、人間の思考を強力に補助する存在であることは間違いありません。

ペネトレーションテストの文脈で言えば、AIは次のような用途で使われることがあります。

  • 大量のコードや設定ファイルを一気に読み解く
  • 脆弱性の可能性がある箇所を洗い出す
  • 攻撃の成立条件や前提を整理する
  • 簡易的な検証用コードやスクリプトの下書きを作る

これらは、熟練したエンジニアが行ってきた作業の一部です。
AIはそれを「代替」するというより、「加速」させます。

画面の前で考え込む時間が減り、「とりあえず試す」が、ほぼノーコストになる。

結果として、試せる仮説の数が増え、検証の初動が速くなる
この変化は、実務レベルではかなり大きいものです。

AIは“何でも”出してくれるわけではない

一方で、一般的な生成AIには明確な制約があります。
多くのAIは、安全性の観点から、露骨な攻撃コードや悪用前提の内容をそのまま出力しない設計になっています。

これは防御側としては健全な方向性ですし、私自身も否定するものではありません。

ただ、現場で見ていると、ここで終わらないケースもあります。

攻撃者は「答えそのもの」を求めているわけではありません。
「どう動けばいいか」という構造や流れが分かれば十分なことも多いのです。

  • 「この処理は、どういう条件で問題になるのか」
  • 「想定される入力と出力の関係はどうなっているか」
  • 「この仕組みが悪用されるとしたら、どこが起点になるか」

こうした問いに対して、AIは比較的自然にヒントを提示してくれます。
それを人間が組み合わせ、手を動かすことで、結果として攻撃が成立するケースもあります。

いわゆる「ジェイルブレイク」という発想

生成AIを触っていると、遅かれ早かれ「制限」にぶつかります。
明確な攻撃コードや、悪用を前提とした指示は、そのままでは返ってきません。

そこで出てくるのが、いわゆる「ジェイルブレイク」という発想です。
聞こえは大げさですが、本質はそれほど特別なものではありません。

  • 表現を変える
  • 目的をぼかす
  • 手順や構造だけを聞く

こうした工夫で、AIがどこまで応答するかを探る。
これは、実際の攻撃というより、思考実験に近い行為です。

ジェイルブレイクは、実務では万能ではない

正直に言えば、ジェイルブレイク自体は“面白い”試みです。
うまくいったときは、少し感心することもあります。

ただ、実務の視点で見ると、評価は冷静になります。

  • 成功率が安定しない
  • 再現性が低い
  • モデルやルールが変わると通用しない

ペネトレーションテストや現実の攻撃で重要なのは、「一度できた」ことより、「何度でもできる」ことです。

その意味で、ジェイルブレイクは研究的価値はあっても、実用面では主役になりにくい手法だと感じています。

制限を回避しようとする発想は、もっと単純になる

ジェイルブレイクを何度か試すと、ある考えに行き着きます。

「そもそも、制限のあるAIを使う必要があるのか?」

最近は、攻撃用途を前提に設計されたAIツールも存在します。
一般的には HackerGPT のような名称で呼ばれることが多いものです。

こうしたツールでは、

  • 表現の言い換えを考える必要がない
  • 制限を意識せずに入力できる
  • 攻撃の流れやコードの雛形が、そのまま提示される

といった特徴があります。

ここで重要なのは、それらのツールが「高度」かどうかではありません。

専用ツールがもたらす別の問題

本当に注意すべきなのは、別の点です。

  • 攻撃の敷居が大きく下がる
  • 試行錯誤のコストがほぼゼロになる
  • 技術レベルの差が、以前ほど意味を持たなくなる

結果として起きるのは、「極端に巧妙な攻撃が急増する」ことではありません。

むしろ、

  • 数が多い
  • 動きが雑
  • しかし止まらない

そうした攻撃が増えていく傾向です。

防御側から見ると、これは非常に厄介です。一つひとつは深刻でなく見えても、業務ロジックや運用前提を少しずつ削ってくるからです。

なぜ気づきにくくなるのか

AIを使った攻撃は、必ずしも派手ではありません。

  • 既存の機能を“想定外の使い方”で叩く
  • 正常系と異常系の境界を少しずつ探る
  • ログ上は通常操作と区別しづらい

こうした動きは、アラートが鳴らないまま進むこともあります。
特に、業務ロジックや運用前提を突く攻撃では、後から振り返って初めて違和感に気づくことも珍しくありません。

予防側として、今できること

AI時代だからといって、特別な魔法の対策があるわけではありません。
ただ、次の点はこれまで以上に重要になっていると感じます。

  • 「仕様通り動く=安全」と思い込まない
  • 業務フローや前提条件を含めて確認する
  • 人が考え得る“ズレた使い方”を想定する
  • 定期的に第三者視点での診断を入れる

これらは地味ですが、AIの登場によって価値が下がることはありません。
むしろ、人間の思考を拡張するAIがあるからこそ、基本の確認が効いてくる場面が増えています。

何も起きていない今だからこそ

インシデントが起きてから振り返ると、「あの時、確認していれば」と思う点が見つかることは多いものです。
ただ、実際には問題が起きていない状態で立ち止まるのは、なかなか難しい。

私自身、診断の現場で「特に問題はないと思っていました」と言われるケースを何度も見てきました。
その言葉自体は、決して間違いではありません。

だからこそ、何も起きていない今の状態を、静かに確認することに意味があるのだと思います。

AIは攻撃者の思考を助けます。
同時に、私たち防御・予防側の思考も助けてくれる存在です。

少し立ち止まって、自社の前提や仕組みを見直してみる。
攻撃が始まってからでは、もう遅いこともある。
その小さな行動が、後から大きな差になることもあります。

自社のセキュリティに不安を感じたら

ペネトレーションテスト

投稿者プロフィール

イシャン ニム
イシャン ニム
Offensive Security Engineer
15年以上の実績を持つ国際的なホワイトハッカーで、日本を拠点に活動しています。「レッドチーム」分野に精通し、脆弱性診断や模擬攻撃の設計を多数手がけてきました。現在はCyberCrewの主要メンバーとして、サイバー攻撃の対応やセキュリティ教育を通じ、企業の安全なIT環境構築を支援しています。
主な保有資格:
● Certified Red Team Specialist(CyberWarFare Labs / EC-Council)
● CEH Master(EC-Council)
● OffSec Penetration Tester(Offensive Security)


Page Top