AI の登場に伴い、新しいセキュリティ戦略の構築が求められる理由
人工知能(AI)は人々の日常に浸透しつつあり、何か問題が発生しない限り、その存在には気が付かないほどです。
多忙な仕事が終わり、ようやく帰宅したことを想像してみてください。パーソナル・デジタル・アシスタントが、お気に入りのリラックスミュージックを自動的に再生し、より快適な温度で過ごせるよう室温も調整してくれます。冷蔵庫のミルクが残り少ないことに気付きますが、1 週間あたりの消費量を把握しているデジタルアシスタントがすでに注文しており、今夜配送予定です。来週の結婚記念日も忘れずに教えてくれるばかりか、ひいきのイタリアンレストランでディナーの予約も取ってくれています。
SF のように聞こえるかもしれませんが、これは実際に容易に実現可能です。そして、アシスタントのミスが発覚するその日まで、何事もなく進み、注意深く考えることもありません。デジタルアシスタントは、見知らぬ人にスケジュールを公開していたり、非公開にしておくべきデータを公にしてしまったりすることもあります。広範囲におよぶ個人情報の提供には、「それらのすべての情報をどのように保護するか」という難題があります。
企業の視点から見ると、この問題はますます重大なものとなります。
AI ハイジャックが増加中
次に、自社の Web サイト上で、AI チャットボットによるリアルタイムの顧客データ漏えいが発覚した状況を想像してみてください。あなたとチームは、総力を挙げて被害を抑えるべく対処にあたり、結果として業務に負荷がかかり混乱が引き起こされます。これも SF ではありません。脅威アクターは AI をハイジャックしたり、AI ツールを使用して安全保護対策を回避したりしており、その頻度も増加しています。
企業リーダーの関心も高まっています。2024 年 11 月の Gartner の調査によると、リスクおよび保証担当の上級管理職やマネージャーの 5 人のうち 4 人が、AI によって強化された悪性の攻撃が最大の懸念事項であると回答しています。第 2 位は、AI アシストによる誤情報です。
AI の普及はビジネス業界に革新をもたらしている一方、新たな形態のセキュリティリスクが生まれ、企業のセキュリティ担当者やビジネスリーダーにとって未知の挑戦となっています。これらの新たなリスクに対する防御として、どのような準備をしていますか?
既存の安全保護対策では不十分
従来のサイバーセキュリティ防御では、AI 主導の環境におけるセキュリティ上の課題に対応するためには不十分です。従来のサイバーセキュリティ防御では、静的なルールベースの検知、境界重視のアクセス制御、既知の脅威への対応が主に重視されます。これらのメソッドは、同じ入力に対して常に予想どおりに応答する決定論的アプリケーションにおいては効果的です。
一方、AI アプリケーションは非決定論的であるため、同じように入力しても応答が異なり、従来のセキュリティアプローチの効果は低減します。
今日の AI を活用した脅威に、古いルールは対応できません。防御を迂回し、正規のふるまいを模倣して検知を回避できるうえに、自動化された大規模な攻撃を実行する能力を持っています。
従来のサイバー防御 |
AI を活用した脅威 |
---|---|
ルールベースの検知 静的署名、定義済みルール |
迅速な適応 静的防御を回避するために学習、進化 |
境界重視 ファイアウォール、ID およびアクセス管理、厳格なアクセス制御 |
正規ユーザーの模倣 通常アクティビティを混ぜることで検知を回避 |
反応型の応答 既知の脅威を検知して緩和 |
大規模な攻撃を自動化 大規模で自動化されたサイバー攻撃が可能
|
従来のサイバー防御と AI を活用した脅威
3 つの重要な AI 攻撃戦略
対処すべき問題とは、具体的にはどういったものでしょうか。AI 攻撃戦略は絶えず進化していますが、一般的によく出回っている脅威は、プロンプトインジェクション攻撃、データポイズニング、機微な情報の漏えいの 3 つのカテゴリーに大きく分けられます。
プロンプトインジェクション攻撃
このシナリオでは、攻撃者は悪性の入力をプロンプトに挿入して AI のモデルを操作し、モデルの意図されたふるまいを変えます。AI の肩に乗った典型的な悪魔を想像してみてください。誤った情報の生成や機微な情報の漏えいなど、AI が本来すべきではないことをするよう仕向けます。
AI のジェイルブレイクとして報じられた例の一つに、セキュリティ研究者が、チャットボットのトレーニングを回避するために、連続した前後のプロンプトを使用して、禁止情報(火炎瓶の作成手順)へのアクセスが可能になったという例があります。
プロンプトインジェクション攻撃の兆候としては、予期しないトラフィックの急増、ルール回避の試み、または誤った応答や異常な応答の増加などがあります。プロンプトインジェクション攻撃は、制限対象情報の漏えいだけでなく、コンプライアンス違反や評判の失墜をも引き起こすおそれがあります。
データポイズニング
この戦略には、AI トレーニングデータを操作または破壊して、結果に偏りを持たせたり、セキュリティの脆弱性をもたらしたりする攻撃者が関与しています。データポイズニングは、AI を活用した意思決定の信頼性を低下させることに焦点を当てています。これは、チェスのグランドマスターに悪い戦略を提供するようなもので、これによって正しい動きができなくなります。
データポイズニングの兆候としては、異常なデータやふるまい、エラー率の上昇、予期せぬトラフィックの増加などが挙げられます。データポイズニングによる影響は、バイアスのかかった応答や不正確な応答、バックドアの導入や防御の回避まで多岐にわたります。
機微な情報の漏えい
AI モデルは、回答を通じて企業や顧客の機密情報を誤って開示する可能性があります。たとえば、企業の電子メールに関するトレーニングを受けた AI アシスタントは、脆弱性を悪用しようとしている攻撃者に対して、内部の議論をそのまま伝えてしまう可能性があります。
機微な情報の漏えいの兆候としては、個人情報(PII)の盗難、不正アクセスの試み、エラー率の増加など、異常なデータ窃取パターンが挙げられます。機微な情報が漏えいした場合、重大な規制コンプライアンスリスクが発生し、罰金が科せられたり、顧客からの信頼が失われたりする可能性があります。
新たな脅威には新たな戦略が必要
では、AI の可能性を活用しながら、データ、顧客、ビジネスの保護を実現するためにはどうすればよいでしょうか?その答えは、次のベストプラクティスに重点を置いた包括的なアプローチを取ることです。
探索と検証:攻撃者によって悪用される前に、脆弱性を特定するためには、AI インベントリ全体を探索し、最新の状態を維持しましょう。これには、展開前にモデルとその依存関係を明確に把握しておくことが含まれます。
AI セキュリティポスチャ管理:継続的なモデルテスト、データスキャン、脆弱性スキャン、異常検知により、セキュリティを保護し、強化します。正規のレッドチームを編成し、攻撃者に発見される前に潜在的な脆弱性を特定します。
ランタイム保護:AI ネイティブファイアウォールやポリシー強化などのソリューションを導入し、AI モデルやアプリケーションを実行時環境で確実に保護します。出力を検証して異常なふるまいを迅速に発見し、緩和します。
これらの各取り組みを相互に組み合せることで、AI のセキュリティを確保し、潜在的な脆弱性を最小限に抑えるための一貫した適応性の高いアプローチを構築します。OWASP Top 10 LLM Applications 2025 は、潜在的な脆弱性と緩和戦略を理解するための貴重なリソースです。
連携が重要
AI 脅威の状況は急速に進化しています。リスクを最小限に抑えるために、今日の脅威に対応するために必要なものを備えた AI セキュリティパートナーと連携することが重要です。Akamai がそのパートナーとなります。
Akamai は、広範な実際のセキュリティインテリジェンスを基盤として、AI の脅威に対する深い理解をはじめ、実績のあるセキュリティ専門知識を備えています。Akamai の多層防御アプローチは、ネイティブ AI ファイアウォールからボット保護、API セキュリティまで、セキュリティに対する多層的なアプローチを提供します。
当社のソリューションは、進化する AI セキュリティフレームワークと規制に準拠しています。お使いの既存の環境ともシームレスに統合し、AI 導入の拡大に応じてニーズに合わせて拡張できます。
詳細を見る
AI はビジネスの未来にとって重要であり、攻撃者はそれを知っています。今こそ、AI セキュリティ戦略を見直しましょう。Akamai がお手伝いします。