AIハルシネーションとは、LLMやその他のモデルが、誤った情報を生成し、あたかも事実であるかのように提示してしまうエラーのことです。AIハルシネーションが生じる原因を理解し、防止策を適用することは、信頼性の高いエンタープライズAIを導入する上で極めて重要です。

ミッションクリティカルなビジネス目的でAIモデルを使用する場合は、企業側がその出力結果の正確性や予測可能性を信頼できなければ採用されません。AIツールが自信満々に不正確なコンテンツを生成してしまうと、業務プロセスを混乱させてしまい、ユーザーの誤解を招き、新たなAI運用上のリスクをもたらす可能性があります。

ハルシネーションは、現代のAIシステムにおいて顕著に現れ、広く議論されている課題です。ハルシネーションが起きる理由はさまざまです。トレーニングデータの限界、プロンプトの曖昧さ、検索システムの弱点、企業の特定のドメイン知識と汎用目的で作られたモデルの動作間に生じるギャップ、などが考えられます。 

幸い、ハルシネーションは管理が可能です。しかし、誤った出力を減らし、AIのリスクを回避するためには、明確な対策を備え、ガバナンスを整備し、テクノロジーを使って制御する必要があります。 正しく理解し、適切なAIツールを使用すれば、このようなエラーの検出、削減、制御は可能です。

AIハルシネーションとは? 定義と特徴

AIハルシネーションとは、人間の幻覚のような、感覚的な体験や心理的な出来事ではありません。LLMの仕組みに内在したものです。LLMは入力を受け取ると、その膨大なトレーニングデータセットを使用して、最も可能性の高い回答を予測します。つまり、何か確定的な答えを「知っている」わけではなく、トレーニングデータに基づいて、最善と思われる推測結果を提示しているだけなのです。

多くの場合、入力内容から最善の推測を行えば、回答結果に大きな問題は生じません。例えば、LLMにフランスの首都を尋ねると、トレーニングデータで「パリ」という答えが非常に強力に重み付けされているため、正しい回答を得られていることに確信が持てます。 

しかし時に私たちは、簡単で明白な答えがトレーニングデータにまだ埋め込まれていないような複雑な問題を解決してもらいたいと、生成AIツールに質問を投げかけることがあります。そのような場合、AIが回答した最善の推測結果は、正確性に疑問が残ります。また、法的準備書面で偽の判例を引用したり政府報告書で存在しない研究を参照したりする可能性もあります。こうした不正確な回答を、ハルシネーションと呼んでいます。AIツールへの入力内容で使われている表現があいまいだったり、重要なコンテキストが欠けていたりすると、ハルシネーションが起こりやすくなります。

AIハルシネーションで特に問題なのは、誤った回答を雄弁に確信を持っているかのように表現してしまうことです。AIツールはハルシネーションを起こしていることすら理解していません。もし気づいていれば、そもそもそのような問題は起きないでしょう。AIツールは人間とは異なり、不確かなこともぼかして表現することなどなく、回答がわからないと告げることもほとんどありません。しかし、LLMのすべての回答について人間の事実確認が必要になると、そのLLMは生産性向上ツールとして役立たないものになってしまいます。

ハルシネーションは、AIの信頼性を担保する上で大きなリスクとなっています。意思決定支援、ワークフローの自動化、コンプライアンス業務、顧客との対話といった場面で企業がAIを導入する中、AIが自信満々に不正確な出力を提示してしまうと、リスクは増大します。

AIハルシネーションの例

AIハルシネーションは次のような種類に分けられます。

  • 事実誤認: 実際の出来事、人物、データポイントに関する、一見信頼できそうで不正確な記述。 

  • 存在しない引用: 存在しない情報源、論文、判例、URLを捏造すること。 

  • 不可能なシナリオ: 論理が破綻している記述や、物理的に不可能な状況を記述した出力。 

  • 視覚的なハルシネーション: 画像生成ツールが、歪められた特徴、無意味な物体、非現実的なシーンを生成すること。 

  • 音声/メディア生成エラー: 不正確なコンテンツや感情のシグナルと矛盾がある合成音声や動画。 

ハルシネーションが見過ごされてしまうと、実社会のビジネスに影響を与えます。例えば、コンサルティング会社のデロイトがオーストラリア政府向けにAI支援によるレポートを作成した際、多数の捏造された学術的参考文献や判決が含まれていました。その結果、同社は料金の一部を返金することになりました。一方、AIが生成した検索結果は、提供している割引内容や企業に対する苦情を捏造してしまい、中小企業に損害を与えています

ビジネスの文脈においては、ハルシネーションによってオペレーショナルリスク、コンプライアンス違反、経済的損失がもたらされる可能性があります。

  • カスタマーサポートエージェントは、誤ったアカウント情報や、捏造されたポリシーの詳細を自信を持って返答する可能性があり、それによって信頼が損なわれ、是正に費用がかかる場合があります。AI関連の最初の訴訟事例の1つに、エア・カナダの事例があります。エア・カナダでは、チャットボットが顧客に存在しない運賃の忌引割引を提示したことで、その責任を問われました。

  • ナレッジマネジメントシステムは、捏造された引用を社内報告書に取り込んでしまう可能性があり、誤った意思決定につながったり、監査上の問題を引き起こしかねません。 

  • コンプライアンスおよびリスクツールを自動化すると、存在しない違反にフラグが立てられたり、偽のアラートが作成されたりしてワークフローが崩壊してしまい、組織が規制当局の監視にさらされる危険性があります。

 

ビジネス上の影響と企業向けリスク

AIハルシネーションがビジネスリスクに直結することは、もうお分かりいただけたでしょう。1979年のIBMのトレーニングマニュアルには、「コンピューターに責任を問うことはできないため、決してコンピューターが経営判断を下してはならない」という有名な言葉があります。つまり、モデルが誤った情報を生成した場合、結果の責任を負うのは、そのモデルを導入した組織です。モデル自身でも、モデルのベンダーでもありません。誤った情報を生成した負の結果は、次のような場面に現れます。

  • 評判へのダメージ:AIを活用したチャネルが、企業のブランド名で誤った回答、不快なコンテンツ、捏造された事実を提供したとき。

  • 業務上のエラー:予測、在庫、セキュリティ上のインシデント対応など、チームが誤った推奨事項に基づいて行動したとき。

  • コンプライアンス違反:開示、報告、顧客とのコミュニケーションなど、規制対象となるワークフロー内のコンテンツにハルシネーションが起き、法的要件やポリシー要件と齟齬が起きるとき。

このようなリスクは、正確性が安全性、金銭、法的な結果と密接に関連する次のような分野に集中する傾向があります。

  • ヘルスケア: AIアシスタントが誤った投与量を提案したり、症状の説明を誤って解釈したりすることで、誤診や不適切なフォローアップを推奨してしまい、壊滅的な結果をもたらす可能性がある。

  • 金融サービス: 規制、投資商品、顧客リスク情報の要約生成システムは、不適切な販売、信用判断の不備、規制当局や投資家の誤解を招くような誤った情報をもたらす可能性があります。

  • 法務および専門職サービス: 最近では、ハルシネーションによる引用や捏造された判例法が、裁判所の制裁、顧客との紛争、専門職の懲戒処分のきっかけとなっている事例も見られます。

顧客からの信頼も危機に瀕しています。ブランドのチャットボットやAIアシスタントが何度も誤った回答を提示すると、顧客はその企業のビジネスの信頼性に疑問を抱き始めます。ガードレールが設定され、適切に管理されたAIシステムを導入している企業は、信頼性を差別化要因と捉えています。大きな信頼性が求められるユースケースにおいて、自社のサービスをより安全で信頼性の高いサービスとして位置付けているのです。

ハルシネーションのエラーを検出する上級テクニック

ハルシネーションを減らすためには、ハルシネーションのエラーを検出することから始めます。企業が必要としているのは、AIシステムの出力内容が顧客、規制当局、本番システムなどに反映される前に、ハルシネーションを発見する方法です。通常は次のような技術的アプローチを組み合わせて、ハルシネーションのエラーを検出する戦略を組み立てます。

  • 信頼度とキャリブレーションのスコアリング: モデルが報告する信頼度、トークンに対する確率分布、キャリブレーション技術を使用して、信頼度の低い回答や一貫性のない回答にフラグを立てます。リスクの高いユースケースの場合、信頼度の低い回答を自動的に二次チェックや人間によるレビューへと回すことができます。

  • 相互検証とマルチモデルチェック: 複数のモデル間、あるいは、検索レイヤーに対して出力結果を比較します。回答が検索されたドキュメントの裏付けを得られない場合、または、独立したモデルが核心となるファクトと一致しない場合は、その回答に疑義を唱えて追加の検証のトリガーにします。

  • 出力と動作の異常検出: AIの出力構造と出力結果にエラー検出技術を適用し、異常なパターン、急激なスタイルの変化、類似のクエリに対して過去の回答から逸脱している部分はないかを探します。行動分析(たとえば、エージェントが読み書きするデータに急激な変化が起きた場合など)と組み合わせて、ハルシネーションに起因するアクションを検出できます。

  • 人間参加型の検証と専門家によるレビュー: 規制対象となるワークフローや影響の大きいワークフローでは、AIの出力結果の一部を対象分野の専門家にリファーして確認してもらうことができます。レビュー担当者は事実の正確性を検証し、人間の感覚で気づいた解釈齟齬を発見し、ハルシネーションにラベルを付けます。そのフィードバックによってプロンプト、検索戦略、ポリシーを改良されていき、時間の経過とともにエラー率を着実に低減させていく閉じたループが生まれます。

  • ファクトチェックとリアルタイム監視の自動化: 企業はAIシステムをナレッジグラフ、検索インデックス、信頼できるデータソースに接続させることができます。モデルが主張するファクトのソースに対し、ファクトチェックレイヤーがクエリを実行し、正解データと比較して回答を確定、阻止、または修正します。ハルシネーションの指標(阻止あるいは修正された回答の割合など)はリアルタイム監視ダッシュボードを使ってチームで追跡できます。これにより逸脱を早期に発見し、ポリシーやトレーニングを調整します。

企業でAIエージェントのアクティビティを監視、統制、修復する際には、Rubrik Agent Cloudをご活用ください。意図とは異なる出力や不正確な出力を、ビジネスに影響を及ぼす前に検出し、制御します。エージェントのアクションやポリシーの適用状況を可視化し、望ましくないAIエージェントの動作を元に戻せる機能も有しています。この機能を使えば、ハルシネーションや意図しない変更のリスクに直接対処が可能です。

ハルシネーションを予防・軽減する包括戦略

全体的には、生成後にハルシネーションのエラーを検出するよりも、初めからハルシネーションの防止策を備えていた方が理想的です。そのためには、AIモデルに供給するデータ、モデル自体、それを取り巻くガバナンス慣行に対処する、構造化されたアプローチが必要です。複数の防御層を組み合わせれば、不正確な出力の頻度と影響の両方を低減できます。

予防プログラムを強化するためには、まずデータ品質を高める必要があります。信頼性が高く、一貫性があり、多様性に富むデータセットをキュレーションできれば、ハルシネーションの原因となる曖昧さが減少します。チーム内に検証ワークフローがあれば、ソース資料の正確性を確認する上で役立ちます。また、定期的に更新することで、モデルの老朽化や不完全な情報への依存を防ぐことができます。データを導入したら終わりではなく、導入後も継続的にメンテナンスしていけば、時間の経過とともにAIの動作がより安定していきます。

モデルの動作は組織で直接調整することもできます。ドメイン固有の実例を使ってファインチューニングを行えば、社内用語、社内規程、社内の期待に応じた出力を生成するようモデルがトレーニングされていきます。AIの応答性を左右する温度設定を下げてランダム性を減らすなど、生成パラメータを調整することで、推測に基づいた回答や捏造された回答が出現する可能性を低減できます。プロンプトエンジニアリングでは、モデルの推論を導き回答の曖昧さを減らすよう構造化された指示、コンテキスト、境界を提供することで、制御レイヤーを追加します。

AIの活用において、信頼できる情報に基づいた出力を得る対策として、現在多くの企業が検索拡張生成(RAG)を導入しています。RAGシステムは、ポリシーリポジトリ、技術文書、検証済みデータセットなど、内部ナレッジソースから関連文書を取得し、クエリ時にモデルに情報を提供します。実際のエビデンスに関連付けて回答を作成するアプローチによって、ハルシネーションを大幅に削減し、監査やレビューのための追跡可能性を実現します。

このようなAIに対する技術的対策はどれも、明確なガバナンスフレームワークが整備されている場合に最も効果を発揮します。組織には、AIの使用方法や使用場所を定義するポリシー、逸脱や予期しないエラー動作を検出する監視システム、リスクの高いタスクをエスカレーションや阻止するレビュープロセスが必要です。監視が一元管理されていれば、企業がAIの導入をビジネス目標、規制上の義務、運用上の安全性と整合させるのに役立ちます。成熟したガバナンス構造があれば、ハルシネーション管理が事後対応的なプロセスから、継続的で予防的な措置に変わります。

Rubrikを使用した信頼性の高いAIエコシステムの構築

AIを大規模に導入する企業は、ハルシネーションが極端な事例ではなく、構造的な軽減策が必要な体系的な事象であることを認識しなければなりません。信頼性は、AIを取り巻くエコシステム全体、つまり高品質のデータ、根拠に基づくモデルアーキテクチャ、継続的な監視、強力なガバナンス強化によってもたらされます。このような構成要素を連携させることで、不正確な出力を減らし、下流への影響を制限し、重要なワークフロー全体に自信を持ってAIを導入できます。

Rubrikでは、AIシステムがアクセスするデータを保護し、本番環境におけるAIエージェントの動作管理ツールを提供することで、AI導入をサポートしています。データセキュリティ態勢管理は、組織がモデルのトレーニングやプロンプトに使用される情報を保護および検証するのに役立つ機能です。そしてRubrik Agent Cloudは、エージェンティックAIのアクティビティの可視性、制御、修復機能を高めます。これらの機能を組み合わせることで、企業がAIを導入する際のレジリエンスな基盤作りが強化できます。

AIの導入が加速するにつれて、企業はデータセキュリティと AIリスクの両方を理解する長期的なパートナーを必要としています。Rubrikは、ガバナンス、整合性の保証、運用上のレジリエンスを高める継続的なフレームワークを提供し、組織が信頼できる AIエコシステムの構築および保守を支援します。デモやご相談についての詳細は、Rubrik までお問い合わせください。