セキュリティチームにとって、インサイダー脅威はよく知られた存在です。インサイダー脅威とは、組織の従業員や、外部委託業者および特権アクセスを持つパートナー企業などのユーザーが、偶発的もしくは悪意を持って組織に悪影響を与えうるセキュリティ脅威です。
しかし最近では、悪意を持っているとは限らず、しかも人間ではないという新しいタイプのインサイダー脅威が登場しています。自律型AI
AIエージェントの出現は、現在のSaaSプラットフォームにおける認可システムにとって大きなリスクとなる可能性があります。しかし、セキュリティチームとITチームが適切な視点で積極的に対応すれば、そのリスクを防げます。まず、エージェントがどこで、なぜ認可システムに重大なリスクをもたらすのかを把握することが必要です。
人間にとって良いこと≠エージェントにとって良いこと
認可
ただしAuthZシステムは、ユーザーが試みるすべての行動を必ずしも防げるわけではないことに注意が必要です。既存のAuthZシステムのほとんどは、法律、社会的非難のリスク、習慣などの外部要因が人間の不正行為を制限するという前提に基づいて脅威モデルを設定・
そのため、AuthZシステムがアクセスを過剰に付与すること
しかしながら、AIエージェントには、そのような良心の呵責がありません。
混沌をもたらすエージェントたちの登場
AIエージェントは、相対的な自律性を持って特定のタスクを実行するために連携して動作するエージェントの集合体です。その設計により、ソリューションを見つけ出し、効率を最大化できます。
その結果、AIエージェントの動作は非決定的になりがちで、特にシステムが相互運用することでより複雑になると、タスクを遂行する際に思いがけない動作をする可能性があります。AIエージェントはタスクを効率的に達成しようとするため、人間がこれまで考えたことのない
AIエージェントの自律的な行動は、そもそも人間の行動を前提としたルールベースのガバナンスの枠組みを超えているため、対処しきれません。独自の動作方法を発見できるエージェントを開発することは、人間が予想もしなかった行動をとるエージェントの登場を許すことにもなります。
こうして、人間に代わって行動するエージェントは、ユーザーのオーバープロビジョニングされたアクセス権や役割を無意識に利用する可能性があります。人間を抑制する社会規範に縛られないAIエージェントは、ビジネスに深刻な影響をもたらす恐れがあります。
たとえば、ユーザーのチェックアウトフローに対するソリューションの作成を担当するAIは、チェックアウトプロセスを最適化するためのコードを書き始めることがあります。このエージェントが、そのミッションに関係がないと判断した
適切なガバナンスでAIエージェントを制御する
セキュリティチームは、新たなベストプラクティスを積極的に採用することで、AIエージェントがAuthZシステム内で引き起こす可能性のある混乱を防ぐことができます。そのためには、責任あるガバナンスが鍵を握ります。組織はまず、以下の重要な領域に焦点を当てることから始めましょう。
1. 複合ID
現在、認証
これにより、以前は簡単だった質問に答えるプロセスが複雑になります。たとえば、
また、次のような新しい質問も促されます。
- 「誰がAIエージェントにこのコードを生成するように指示したのですか?」
- 「エージェントはどのようなコンテキストでそれをビルドする必要がありましたか?」
- 「AIはどのリソースにアクセスできたのでしょうか?」
複合IDは、これらの質問に答える方法を提供します。複合IDは、AIエージェントのIDとそれを指示する人間のユーザーをリンクします。その結果、AIエージェントがリソースにアクセスしようとすると、エージェントを認証して承認し、担当である人間のユーザーにリンクできます。
2. 包括的なモニタリングフレームワーク
運用チーム、開発チーム、セキュリティチームには、複数のワークフロー、プロセス、システムにわたってAIエージェントのアクティビティをモニタリングする方法が必要です。たとえば、エージェントがコードベースで何をしているかを知るだけでは不十分です。ステージング環境や本番環境、関連するデータベース、およびアクセス可能なあらゆるアプリケーションでのアクティビティもモニタリングする必要があります。
既存の人事情報システム
3. 透明性と説明責任
高度なモニタリングフレームワークの有無にかかわらず、組織とその従業員はAIを使用している間は透明性を保つ必要があります。また、AIエージェントに対する明確な説明責任の構造を確立する必要があります。人間は、エージェントの行動とアウトプットを定期的にレビューする必要があり、さらに重要なのは、エージェントがその境界を超えた場合に、誰かが説明責任を負わなければならないということです。
責任を持ってエージェントを導入する
AIエージェントは、作業環境に予測不可能な要素をもたらし、多くの場合、それは顕著なイノベーションやブレークスルーにつながります。また、既存のAuthZシステムの限界を確実に押し広げます。しかしAuthZエージェントが、組織全体に大混乱を引き起こす存在となる必要はありません。
新しいテクノロジーは、これまでのセキュリティの常識に挑戦してきました。まだ見えていないリスクがあることは、ある意味当然のことです。かつての技術進化におけるクラウドコンピューティングへの移行にも似ています。セキュリティはイノベーションに遅れをとることが多く、前進するためにはバランスを取る必要があります。責任あるAI導入は、新たに生まれつつあるベストプラクティスを積極的に受け入れることから始まります。早い段階で適切なガバナンスフレームワークを構築すれば、エージェントが混乱を引き起こすことを防げるのです。