急激 高速に変化するAI駆動型のデータセンターにおいて、セキュリティのコントロールをどのように再定義すべきか。
これまで常識とされてきた「セキュリティを確保するにはパフォーマンスを犠牲にしなければならない」という前提を見直し、「トラフィックの大半が境界を越えず水平方向(East/West)に流れる」という現代の現実に正面から向き合う必要があります。これら2つの視点を融合させることで、AI環境におけるセキュリティの議論を根本から再構築し、アーキテクチャ全体でリスクを制御するためのアプローチが見えてきます。
本記事は全3回の連載の最終回として、これまでの内容を統合し、AIワークロードに求められる保護の全体像を探ります。
セキュリティフレームワークはなぜ進化を迫られたのか
AI(人工知能)の台頭は、アプリケーションの振る舞い、データの流れ、そしてリスクの現れ方を根本から変容させました。もはやAIセキュリティは、単一のセキュリティ対策で解決できる問題ではなく、アーキテクチャ全体で取り組むべき課題となっています。
現在のAIワークロードは、クラウド環境、Kubernetesクラスター、API、およびコンテナ化されたサービス全体に分散しています。AIモデルは膨大なデータセットを消費し、マシンスピードで動作しながら、後続のAIアプリケーションやビジネスワークフロー、現実の意思決定プロセスに供給する出力を絶えず生成し続けています。
このような世界では、ファイアウォールを含め、あらゆる単一のセキュリティ対策だけですべてを網羅することは不可能です。
これは既存の対策が失敗したという意味ではありません。単一のソリューションに依存する時代が終わり、セキュリティフレームワークが進化を遂げたことの証なのです。
AIと既存のセキュリティアーキテクチャ間に生じる「ズレ」の正体
多くの企業は決してAIセキュリティを軽視しているわけではありません。問題は、まったく異なるコンピューティング時代に設計されたセキュリティ対策を用いて、AIシステムを保護しようとしている点にあります。
従来のファイアウォールは、依然として垂直方向(North/South)の保護に不可欠な存在です。インバウンドのリクエストを検査し、セキュリティポリシーを適用し、悪意のある、あるいは安全でないAIの出力からユーザーを守ることで、クラウドセキュリティ、データセキュリティ、認証、そしてAPI保護において重要な役割を果たしています。
また、「Akamai Firewall for AI」のような専用ソリューションは、プロンプトインジェクション、データ漏えい、データポイズニング、敵対的攻撃、生成AI(GenAI)の悪用といったAI特有のセキュリティリスクに対し、必須の防御層を追加します。
しかし、AI特有のものかどうかにかかわらず、ファイアウォールは、「すでに信頼され、水平方向(East/West)に流れるトラフィック」として流れ始めた後のAI環境の“内部”で起こる事象を完全に保護するようには設計されていないのです。
現代のAIシステムの内部では、境界とはまったく異なる現実が広がっています。
AIワークロードは、他のAIサービスと常に通信している。
KubernetesのPodは動的にスケールしている。
トレーニングデータ、ランタイムプロセス、推論パイプラインがインフラストラクチャを共有している。
APIは機密情報をリアルタイムでやり取りしている。
クラウドネイティブおよびオープンソースの依存関係は絶えず変化している。
自動化がこれらすべてのプロセスを加速させている。
内部の可視性が限られ、セグメンテーション(ネットワークの分割)の粒度が粗い場合、セキュリティチームは厳しいトレードオフを強いられます。権限は意図した以上に広く設定され、アクセス制御は緩くなり、厳密な検証の代わりに「暗黙の信頼」がまかり通るようになります。時間が経つにつれ、こうした妥協がアタックサーフェス(攻撃対象領域)を広げ、AIセキュリティの全体的な態勢を弱体化させてしまうのです。
AI侵害はどこで深刻化するのか?
AIに関連するセキュリティインシデントの多くは、最初から破滅的な障害として始まるわけではありません。むしろ、次のような小規模で、よくある身近なほころびから始まります。
露出したAPI
過剰な権限を持つワークロード
侵害されたエンドポイント
汚染されたデータセット(データポイズニング)
設定ミスのあるクラウドサービス
本当の被害が生じるのは、初期アクセスを許したあと、ラテラルムーブメント(横方向の移動)を防ぐ手立てがない状況に陥ったときです。
マイクロセグメンテーションが導入されていないAI環境では、攻撃者は以下のような領域間を自由に移動できてしまいます。
AIモデル、大規模言語モデル(LLM)、および生成AI(GenAI)サービス
トレーニングデータ、データセット、機密情報
共有クラウドサービス、Kubernetesの依存関係、データパイプライン
さらに攻撃者は、AIの出力を暗黙的に信頼している後続のアプリケーションへも容易に侵入できます。
マイクロセグメンテーションがなければ、ランサムウェアはAIワークロードを通じて蔓延し、単なるデータの露出が深刻なデータ漏えいへと発展し、企業の知的財産が外部へ流出してしまう恐れがあります。こうしたシナリオにおいて、エッジに配置されたファイアウォールが「機能不全に陥った」わけではありません。単に、内部で起こっている事象を食い止める位置に配置されていないだけなのです。
AIセキュリティにおいて「多層的な制御」が不可欠な理由
AIセキュリティは、ツールを導入しやすい場所ではなく、「AIのリスクが顕在化する場所」で実施されなければなりません。
それはつまり、AIのライフサイクル全体にわたってセキュリティコントロールを連携させることを意味します。エッジやAPIレイヤーでは、WebアプリケーションおよびAPI保護(WAAP)やAIガードレールといったソリューションを用いて、プロンプト、出力、AIのインタラクションをリアルタイムで検査する必要があります。同時に、データセンターやクラウドファブリックの内部では、AIワークロード、AIサービス、および機械学習システム同士がどのように通信するかを厳密に制御しなければなりません。
まさにこのポイントにおいて、マイクロセグメンテーションとゼロトラスト・スイッチングが不可欠な要件となるのです。
マイクロセグメンテーションとゼロトラスト・スイッチングが急務である理由
AIは内部ネットワーク上で高速に呼び出し合いながら動きます。AIの内部トラフィックを中央の検査ポイントへと迂回(ヘアピン通信)させれば、パフォーマンスやコンピューティング効率、リアルタイムのワークフローが破綻してしまいます。そのため、セキュリティコントロールは水平方向(East/West)の通信経路上に直接組み込まれていなければなりません。
AMD Pensando DPUを搭載したHPE Aruba CX 10000 Smart Switchに「Akamai Guardicore Segmentation」を統合することで、ポリシーの適用そのものがデータセンター・ファブリックの内部へと移行します。静的なIPベースのルールに依存するのではなく、マイクロセグメンテーションによって、ワークロード単位でアイデンティティを認識し、コンテキストに富んだアクセス制御を適用できるようになります。ポリシーはインフラストラクチャではなく、AIワークロードに追随するのです。
このアプローチは、AIのリスク管理を根本から変革します。攻撃者のラテラルムーブメント(横方向の移動)はデフォルトで阻止され、最小特権でのアクセスが継続的に強制されます。攻撃ベクトルは拡大するのではなく縮小に向かいます。そしてセキュリティチームは、パフォーマンスを犠牲にすることなく、AIシステム、AIデータ、AIワークフローに対するリアルタイムの可視性を手に入れることができます。
ゼロトラスト・スイッチングは、AIシステムが内部でどのように相互作用するかを直接保護します。これはまさに、現代の侵害が深刻化する「内部」の保護に直結しているのです。
統合の力:一貫したAIセキュリティアーキテクチャがもたらす防御力
最も強固なAIセキュリティ戦略とは、複数の対策から「どれかを選ぶ」ことではなく、それらを「連携させる」ことです。
「Akamai Firewall for AI」は、AIアプリケーションに対する入力と出力の両方を保護します。「Akamai Guardicore Segmentation」は、クラウドネイティブおよびコンテナ化された環境全体で、水平方向(East/West)のワークロード通信を保護します。そして、HPE/Pensandoを採用したゼロトラスト・スイッチングが、レイテンシを生じさせることなく、ファブリックの速度でそれらのポリシーを適用します。
これらが統合されることで、プロンプトからモデル、ワークロードからデータ、そしてランタイムから現実世界への影響に至るまで、AIのライフサイクル全体にわたってレジリエント(回復力のある)なセキュリティファブリックを提供します。
これは単なる冗長化ではなく、真のレジリエンス(回復力)です。
対策の遅れがリスクを増幅させる理由
AI環境は今後さらに高速化し、より自律的になり、相互接続性を深めていくでしょう。攻撃者はすでにこの事実を理解しています。だからこそ、彼らは単なる境界防御の突破だけではなく、内部のAIワークフローやデータパイプライン、権限設定を直接標的にしているのです。
ファイアウォールは、AIアプリケーションを保護するための基礎となるものです。また、AIに特化したファイアウォールは、AIおよびLLM(大規模言語モデル)のリスクから保護するための専用の防御策として機能します。
しかし現在、AIの導入やAIを採用するエンタープライズのエコシステムを保護する上で、マイクロセグメンテーションとゼロトラスト・スイッチングは「欠かせない要素」となっています。対策を先延ばしにしてもリスクは減りません。むしろ、リスクを増幅させるだけなのです。
AI駆動型の世界における「確固たる信頼」の築き方
AIセキュリティとは、日々の最新ニュースに場当たり的に反応したり、バズワードに飛びついたりすることではありません。それは、現実的で測定可能な「信頼」を確立することです。つまり、機密データを保護し、アクセスを制御し、AIワークロードを適切に分離し、本番環境でシステムが期待通りに動作することを確実にする取り組みに他なりません。
Akamaiが提供する統合的アプローチの価値
AIワークロード、クラウド環境、Kubernetesプラットフォーム、あるいは生成AI(GenAI)システムの保護方法を根本から見直そうとお考えであれば、Akamaiが提供する独自の統合的アプローチをぜひご検討ください。私たちは、オンラインライフの力となり、守るための戦略的パートナーとして、世界中のお客様を支援しています。
AIの進化は止まりません。それに立ち向かうためのセキュリティアーキテクチャも、進化を止めるべきではないのです。
関連リソース
安全な AI インタラクションの詳細については、Firewall for AI のプロダクトブリーフをお読みください。
Akamai Guardicore Segmentation とゼロトラストセキュリティによる、安全な AI ワークロードの構築については、ソリューションブリーフをお読みください。
ゼロデイ脆弱性や CVE などから Web アプリケーションと API を保護する、Akamai App & API Protector について詳細をご確認ください。
Tags