ISIT

RAGの活用例と実際に使ってみた様子をご紹介

  • AI

こんにちは、情報システム部の田畑です。

ChatGPTに代表される生成AI技術は、近年目覚ましい発展を遂げています。

しかし生成AIは事実に基づかない、不正確な回答をすることがあります。

この問題はハルシネーションと呼ばれ、これを解決するために、RAGと呼ばれる技術に注目が集まっています。

この記事では、不正確な回答を防ぐ技術であるRAGの概要や、活用例について解説していきます。

1. ハルシネーションとは?

生成AIを活用する際の課題に、「生成AIは事実に基づかない回答をする場合があること」が挙げられます。このような事実に基づかない回答を、ハルシネーションと呼びます。

生成AIが幻覚(ハルシネーション)を見ているように回答するためこのように呼ばれるようになりました。

生成AIがどのような情報に基づいて回答を生成したかわからない場合、ユーザーは回答の真偽を判断することが難しくなります。

また、回答の正確性を担保できない点は、生成AIを活用していこうとする企業にとって責任に関わる重大な問題であると言えます。

ハルシネーションを解決するための手法はいくつかありますが、比較的安易・安価に実施できるものがRAGと呼ばれる技術です。

生成AIの活用が進むにつれ、ハルシネーションを軽減するRAGに注目が集まるようになりました。

2. RAGとは?

RAGはRetrieval-Augmented Generationの略で、日本語では「検索拡張生成」とも言われます。

生成AIが回答する前に外部データベースから情報を取得することによって、最新で最適な情報を回答できるようにする技術です。

外部データベースを利用者が設定することによって、回答の根拠を明確に示すことができるようになり、ハルシネーションの低減が期待できます。

また本来生成AIサービスが知りえない、社内データのような情報を付加した回答を行うことができるようになります。

3. RAGの活用例

企業内ナレッジベースの整理

企業内の文書からRAGが情報を取得し、ユーザーに対して適切な回答を行うチャットボットを作成することで、必要な文書を探す時間を減らし生産性を高めることができます。

顧客サポートの自動化

顧客から問い合わせがあった際に過去の問い合わせ事例から情報を取得し、適切な回答を生成する チャットボットを作成することができます。

よくある問い合わせに対しては、RAGに自動で回答させることにより、サポート担当者の時間を確保し、より高度な問題に集中することができます。

専門的な意思決定

医学、法律など専門的な情報を求められる際にもRAGを活用できます。

RAGに過去の事例やナレッジから情報を取得・提案させることで、情報を探す時間が節約され、意思決定を迅速化することができます。

また、情報の出典も提示することによって、誤った情報かどうかもすぐに判断することができます。

マーケティングへの活用

顧客からの質問や意見をデータベースに収集し、RAGを用いて生成AIに要約させることによって、グラフや表では表しづらい言語表現までキャッチアップし、迅速にマーケティングの課題を把握できるようになります。

たとえば、顧客のニーズやトレンドを素早く把握し、適切な戦略を立てることが可能です。

4. RAGを使ってみた

これまでの内容からRAGについて様々な活用方法があることが確認できました。

そこで、私も実際にRAGの環境を作成しテストを行ってみました。

社内ナレッジの検索システムを想定し、RAGを作成してみます。

まずはデータベースにある情報をもとに返答を行うチャットボットを作成します。

RAGはChatGPTのような生成AIサービスが持つパブリックの情報と、データベースで保持するローカルの情報を組み合わせて返答を行うこともできます。

今回は議事録の内容を効率的に検索するシステムを作成するため、ローカルの情報のみ参照するようにしました。

次に、「架空の企業である株式会社LLMコーポレーションとの初回打合せを終えた」という仮定で、 議事メモを模した以下のメモをデータベースに保存します。

【株式会社LLMコーポレーション 打合せ】

  • 初回打合せ実施日 4/1
  • LLMコーポレーションの担当者様 情報システム部の中村様
  • 社内のナレッジが整理できていない。
    →属人化や資料を探す時間が発生することを課題に感じている。
  • 課題の解決策として、生成AIとチャットボットを活用した社内ナレッジの整理について検討している。
  • 次回打合せ 5/20予定 Web会議にて実施

チャットボットに質問してみます。結果は以下の通りです。

RAG

1つ目の質問ではLLMコーポレーションの次回打合せについて、「いつ」「どのように」行われるかを確認しています。

それに対して、チャットボットはデータベースに保存した内容を正確に回答することができています。

また、2つ目の質問ではLLMコーポレーションの所在地について確認しています。

これはデータベースに保存した内容に含まれない情報なので、チャットボットは回答できません。

つまり、無理に回答を行おうとした場合ハルシネーションを起こしているということです。

今回の回答では、チャットボットは「提供されていない情報」と判断し、所在地の情報を述べませんでした。正確な情報をユーザーに届けることに成功し、ハルシネーションを防ぐことができていますね。

生成AIの活用はあらゆる分野で進んでいますが、回答の正確性は避けては通れない問題です。

ハルシネーションを低減することができるRAGは今後さらに必要となる技術だと期待されています。

また、RAGは社内ナレッジの整理、マーケティング促進、専門分野の情報検索など、多岐に渡って応用することができます。

RAGを活用することによって、企業は素早い判断が可能となり、より本質的な課題やビジネスチャンスの創出に取り組むことができるようになるでしょう。