Documentation Index
Fetch the complete documentation index at: https://docs.lovi.ai/llms.txt
Use this file to discover all available pages before exploring further.
AIエージェントの仕組みを理解する
LoviのAIエージェントは、大規模言語モデル(LLM)を活用して膨大なテキストデータを分析し、顧客の問い合わせの意図を解釈します。 生成AIを利用して、ナレッジベースの情報を自然な会話形式の回答にまとめます。 回答の品質を確保するため、AIエージェントはコンテンツフィルターを使用して各回答を検証します: • データ: ナレッジベースにその問い合わせに関する情報が存在します。 • スモールトーク: 一般的な質問やコメントであり、回答可能と判断します。 • マッチなし: ナレッジベースに存在しないが、存在すべき特定の質問であると判断します。 Loviの推論エンジンは、以下を考慮してAIエージェントの能力をさらに強化します: • 会話コンテキスト: 一貫した回答を提供するための過去のやり取り。 • ナレッジベース: 関連情報の利用可能性。 • ビジネスシステム: エージェントが必要な情報を取得するための設定済みアクション。 この分析に基づいて、AIエージェントはフォローアップの質問、ナレッジベースからの情報提供、または設定済みアクションの実行など、顧客を効果的にサポートするための適切な対応を決定します。AIエージェントがナレッジベースからコンテンツを生成する方法
ナレッジベースをLoviのAIエージェントに接続すると、顧客の問い合わせに関連する情報を効率的に提供するためにコンテンツを取り込みます。以下はそのプロセスの概要です:ナレッジベースの取り込み
- コンテンツのインポート: LoviのAIエージェントはナレッジベースのすべてのコンテンツをインポートし、24時間ごとにコンテンツの更新をチェックします。
- コンテンツのチャンク化: コンテンツは、それぞれが1つの主要な概念に焦点を当てた小さなセクションに分割されます。このセグメンテーションにより、AIエージェントはより効率的に検索できます。各チャンクには、前の見出しなどのコンテキスト情報が保持されます。
- エンベディングの作成: 各チャンクは大規模言語モデル(LLM)によって処理され、コンテンツの意味を捉えた数値表現(エンベディング)が生成されます。これらのエンベディングは、迅速な取得のためにデータベースに保存されます。
回答の生成
- クエリの処理: 顧客がクエリを送信すると、LoviのAIエージェントはLLMを使用してそれをエンベディングに変換します。次に、不適切または有害なコンテンツをフィルタリングするためのモデレーションチェックを実行します。
- セマンティック検索: AIエージェントはクエリのエンベディングをデータベース内のエンベディングと比較し、意味的に最も類似するコンテンツチャンクを特定します。回答を作成するために、関連性の高い上位3つのチャンクを選択します。
- コンテキストの理解: フォローアップの質問に対しては、AIエージェントが前の会話コンテキストを組み込んでクエリを言い換え、取得する情報の関連性を高めます。
- 回答の生成: 選択されたコンテンツチャンクがGPTに送信され、自然な回答が構築されます。この回答は、安全性、関連性、正確性を確保するための3つのフィルターを通過した後、顧客に配信されます。
