私たちは新たな知識ベース的機能をかつてない規模で活用しようとする、AIをめぐる新しい世界的な競争の只中にいます。OpenAIのような企業は、先行して動くことが桁外れの利益につながること、スピードこそが何より重要であることを証明しました。
この新たなAI競争の燃料となるもの - データ
イノベーションにはスピード感のある行動が求められますが、新たに登場したAI機能の安全とセキュリティを確保するという点では、うまくバランスを取ることが必要なのは明らかです。
企業が選択したAI戦略によって、ベンダーの「Copilot」的コンパニオンを使用するのであれ、検索拡張生成(RAG)や微調整したLLMを使用するのであれ、大量の企業独自の機密情報がクラウドに移動して広範囲にアクセスできる状態になり、さらにはコントロールできないモデルに組み込まれる可能性があります。
このデータ駆動型の環境においては、機密情報の安全を確保することが何よりも重要です。組織がますますクラウドテクノロジーを導入し、マルチクラウド環境へと踏み込む中、強固なデータセキュリティの確保は必須の最優先課題となっています。データ保護のためばかりでなく、責任あるAIの実践に従う上でも強力なアプローチとなる、データセキュリティ態勢管理(DSPM)に着手することです。
DSPMは従来のセキュリティ対策とは異なり、マルチクラウド環境に焦点を当てています。マルチクラウド環境では、データは、サービスとしてのインフラストラクチャ(IaaS)、サービスとしてのプラットフォーム(PaaS)、サービスとしてのデータベース(DBaaS)、さらにはSaaSアプリケーションを含めた、さまざまなサービス全体に分散しています。Rubrikは最近、独自のDSPM Everywhereアプローチを発表しました。これはAIアプリケーションに使用するための別の重要データリポジトリ、オンプレミスデータを安全に活用するために設計されています。
Rubrik Laminar DSPMは、こうしたAIシステムが利用するデータに真に必要とされている可視性を提供し、コントロールできるようにすることで、AI向けのデータセキュリティを提供し、モデルのトレーニング中やデプロイ中の意図しないデータ漏洩を防ぐ支援を行います。
LLMモデルで利用されるデータセットを可視化する
Rubrik Laminar DSPMでは、構造化データ、非構造化データ、半構造化データのデータ検出機能、およびPCI、HIPAA、GDPRなど各種フレームワークで利用されている分類機能を提供します。さらに、どのユーザーやロールがこの種のデータにアクセスできるかをマッピングでき、モデルのデータ利用状況を把握することができます。
AIデータリネージ
Rubrik Laminarを利用すると、最終的に各AIモデルの入力となりうるデータ資産のソースやデータのコピーを特定できます。これにより、元の情報の起源を解明し、モデル入力の可視性を高めることができます。
意図しないデータの混入によるモデル汚染を防ぐ
モデルのトレーニングが完了すると、多くの場合、モデルはブラックボックス化し、機密データや意図しないデータが入力として使用されたかを把握することは困難になります。入力として把握された、データ資産に移動されるデータを監視することで、モデル汚染を防ぎ、責任あるAIの実現をサポートできます。
AIデータのデータアクセスガバナンス
内部者および外部者のIDのデータアクセスをマッピングすることで、事前承認された人物のみが最終的にこれらのモデルのベースラインとなるデータセットにアクセスおよび操作できるようにし、認可されていない従業員やサードパーティー機関による改ざんからデータを守ることができます。
認可されていないモデルやシステムの特定
管理下にないクラウドインフラ上で実行されているシャドーデータやシャドーモデル(管理下にないVMで実行されているデータベースを含む)を特定することで、このようなシステムに保存されている(または移動した)機密データに関するアラートをセキュリティチームに発することができます。そのようなデータセットを基盤としたAIモデルのデプロイにVMがいつ使用されたかの検出も行えます。
企業が安全かつ確実に生成AIのメリットを享受するには、その基盤となるデータの安全な利用の確保が欠かせません。Rubrik Laminar DSPMが備えているようなデータセキュリティ態勢管理やデータ検知・対応機能は、LLMや生成AIシステムのセキュリティを、企業使用にふさわしいレベルへと引き上げます。AIの諸要素のうち最も重要な要素であるデータとモデルのセキュリティに重点を置くことで、信頼性や確実性を損なうことなく、イノベーションのスピードを維持することができます。