AI TRiSMとは、企業全体で責任を持って人工知能(AI)を統制するためのフレームワークのことで、AIの信頼性(Trust)、リスク(Risk)、セキュリティ・マネジメント(Security Management)の頭文字から名付けられた言葉です。これはAIシステムを統制、監視、制御するための構造化されたアプローチとしてGartnerが提唱した概念で、このフレームワークに従うことで、AIシステムが安全かつ確実に、そして企業のポリシーや規制に沿った動きが確保できるようになります。
AI TRiSMフレームワークは、AIのライフサイクル全体を通じて信頼性、リスク、セキュリティを管理するために統一された仕組みです。このフレームワークを組織で使用すれば、潜在的な脆弱性をより適切に特定し、不正使用やデータ漏洩に対する対策を講じ、モデルの進化に応じて一貫した監視を行うことができます。
ガートナーは、企業環境でAIシステムの構築、導入、統制を一貫して解決するための柱を5つ立て、AI TRiSMを定義しました。具体例:
説明可能性:AIシステムが生成する結果は、人間がレビューでき、理解でき、質問できるものでなければいけません。セキュリティチーム、監査担当、規制当局、および事業主がモデルの決定事項を解釈できるようにすることに重点を置いています。その結果、問題の根本原因分析が可能になり、AIが主導した意思決定に対して信頼性が構築されます。
ModelOps: モデル・オペレーション(ModelOps)は、モデルが本番環境に移行した後のデプロイ、監視、更新、削除方法を管理する仕組みです。具体的には、パフォーマンスの監視、ドリフトの検出、バージョン管理、ロールバック・プロセスなどが該当します。ModelOpsがあることで、モデルの経年的な進化や劣化に応じたリスク管理が組織内で円滑に進みます。
AIに特化したセキュリティ:AIの導入により新たな攻撃対象領域が生じています。その範囲は、モデル、データ、API、インフラストラクチャ(クラウド/オンプレミス)、プロンプト、エージェント、コパイロットなど従来のアプリケーションのセキュリティ対策ではカバーしきれない領域にまで及びます。AIに特化したセキュリティ対策を講じることで、プロンプトインジェクション、データポイズニング、モデル反転攻撃、モデル盗用といった脅威に対処します。モデル、入力、出力、統合の作業が操作されたり悪用されたりしないよう、保護に重点を置いて管理しています。
プライバシー:AIの訓練および推論を行う際に組織のデータをどのように収集し、処理し、保存し、再利用するかは、顧客のプライバシーに大きな影響を与えます。匿名化、最小化、差分プライバシーなどの技術は、機密データや個人データの漏洩防止に役立ちます。プライバシーに落ち度があると、多くの場合、法的リスクおよび風評リスクに直結します。
規制コンプライアンス:すべての本番システムと同様に、AIモデルもGDPR、HIPAA、AIに特化した新法を含む規制に準拠する必要があります。規制コンプライアンスでは、ポリシーの施行、文書化、監査可能性、エビデンスの収集を重視しています。AIの展開方法や展開場所を決定する際に、コンプライアンス要件はますます重要になっています。
AI TRiSMフレームワークを実装する際には、既存のセキュリティ、データ、ガバナンスプログラムを最初から完全に置き換えるのではなく、既存のものを基盤としながら段階的に取り組んでいくのが最善の方法です。組織内でAI TRiSMのベストプラクティスを取り入れる5つの方法を以下に示します:
現在のAI資産の監査:まず、サードパーティのシステムや組み込みシステムを含む、使用中のすべてのAIモデルとエージェントを棚卸しします。使用シナリオ、ビジネスオーナー、訓練または推論に使用するデータソースを文書化します。可視化することで、ガバナンスとリスク評価の基盤が確立されます。
ガバナンスフレームワークの確立:ガバナンスが確立されていれば、AIの利用範囲がチーム全体に拡大した際にも一貫性が保たれます。モデルの開発、デプロイ、継続的な監視に対するオーナーシップを明確に定義し、利用規定や、データ処理、モデルの更新、例外管理に関するポリシーを設定します。
リスク評価の適用: データの取り込みやトレーニングから、推論や下流工程の統合に至るまで、AIライフサイクル全体のエクスポージャーポイントを評価します。データ漏洩、バイアス、モデルのドリフト、誤用に関連するリスクを評価します。モデルやユースケースが変化したら、その都度リスク評価も見直す必要があります。
監視と制御の導入: モデルの動作、AIエージェント、統合の監視を実装して、異常やポリシー違反を検出します。エージェントがID管理とアクセス管理をできるようにし、入力内容を検証して出力結果を追跡します。継続的に監視することで、早期の問題特定につながります。
データセキュリティの組み込み:強力なアクセス制御と暗号化により、トレーニング、推論、保存の全過程で機密データを保護します。機密データを発見しラベル付けすることで、AIシステムによる規制対象情報や専有情報の公開を防ぎます。
業界の状況によってAI TRiSMの適用方法は異なりますが、信頼性、セキュリティ、説明責任を維持しながらリスクを低減するという根本的な目標はどの業界も同じです。次の表1は、代表的なユースケース、各ユースケースで対応が必要な主なリスク、および最も直接的に関与するAI TRiSMコンポーネントをまとめたものです。
表1. 代表的なTRiSMのユースケース
業界 | ユースケース | AI TRiSMによるリスクの軽減方法 | 対応するTRiSMコンポーネント |
医療 | AI支援診断およびAIによる臨床意思決定支援ツール | データガバナンス、アクセス制御、モニタリングを行うことで、訓練や推論の際に保護対象の医療情報へのエクスポージャーを制限しながら、臨床および規制当局によるレビュー向けの監査証跡を取ります。 | プライバシー、規制コンプライアンス |
金融 | 信用リスクスコアリングおよびローン承認モデル | 説明可能性と継続的なモニタリングが必要なため、モデルのドリフトや規制の変更に応じて意思決定ロジックのレビュー、バイアスのテスト、修正を行います。 | 説明可能性、モデルの運用、コンプライアンス |
小売 | 顧客行動およびレコメンデーションモデル | トレーニングデータ、モデル、出力結果を保護し、不正アクセスや敵対的入力によるデータ漏洩、モデルの盗難、改ざんのリスクを軽減します。 | AIに特化したセキュリティ、プライバシー |
政府機関 | 一般公開されているAIサービスおよび意思決定システム | 透明性、文書化、ポリシー制御を徹底して、説明責任、社会的信頼、調達および規制要件へのコンプライアンスを支援します。 | 説明可能性、コンプライアンス |
AI TRiSMフレームワークがあれば、拡張性が高く説明責任のあるAIの導入を支援しながら、どのセクターにおいても一貫した枠組みで業界固有のリスクに対処できます。
大規模にAIシステムを構築・展開する組織にとってAI TRiSMは不可欠です。特に、信頼性、セキュリティ、説明責任が重要となる、規制の大きいデータ量の豊富な環境下では重要な仕組みです。AIの導入が加速するにつれて、モデルの開発方法、展開方法、監視方法にリスク管理を組み込んでいく必要があります。
データ保護とガバナンスは、AI TRiSMの実用性を高める上で中心的な役割を果たします。Rubrikのデータセキュリティおよびガバナンス機能を使えば、機密データを保護し、リスクの可視性を向上させ、監査およびコンプライアンス要件をAIライフサイクル全体で支援することで、AI運用の安全性をさらに高めることができます。
AIイニシアチブや運用可能なAI TRiSMを今後も進化させ続けていきたいと考えている組織は、データセキュリティとAIガバナンスを接続させることが次の重要なステップです。Rubrikによる安全で責任あるAIの導入支援方法については、Rubrikチームにお問い合わせください。