Documentation Index
Fetch the complete documentation index at: https://docs.lovi.ai/llms.txt
Use this file to discover all available pages before exploring further.
Verstehen Sie, wie Ihr KI-Agent funktioniert
Der KI-Agent von Lovi nutzt Large Language Models (LLMs), um Kundenanfragen zu interpretieren, indem er umfangreiche Textdaten analysiert und so die Absicht hinter den Fragen erkennt. Mithilfe von generativer KI formuliert der Agent Antworten, indem er Informationen aus Ihrer Wissensdatenbank zu natürlichen, gesprächsähnlichen Antworten zusammenfügt. Um die Qualität der Antworten sicherzustellen, verwendet der KI-Agent Inhaltsfilter, die jede Antwort überprüfen: • Daten: Es gibt Informationen zu dieser Anfrage in der Wissensdatenbank. • Smalltalk: Erkennt, dass es sich um eine allgemeine Frage oder Bemerkung handelt, die beantwortet werden kann. • Kein Treffer: Erkennt, dass es sich um eine spezifische Frage handelt, die in der Wissensdatenbank nicht existiert, aber existieren sollte. Die Reasoning Engine von Lovi erweitert die Fähigkeiten des KI-Agenten zusätzlich, indem sie Folgendes berücksichtigt: • Konversationskontext: Vorherige Interaktionen, um kohärente Antworten zu liefern. • Wissensdatenbank: Verfügbarkeit relevanter Informationen. • Geschäftssysteme: Konfigurierte Aktionen, die es dem Agenten ermöglichen, die benötigten Informationen abzurufen. Basierend auf dieser Analyse bestimmt der KI-Agent die geeignete Vorgehensweise – etwa Rückfragen stellen, Informationen aus der Wissensdatenbank bereitstellen oder konfigurierte Aktionen ausführen, um dem Kunden effektiv zu helfen.Wie Ihr KI-Agent Inhalte aus Ihrer Wissensdatenbank generiert
Wenn Sie Ihre Wissensdatenbank mit dem KI-Agenten von Lovi verbinden, nimmt dieser Ihre Inhalte auf, um Kundenanfragen effizient mit relevanten Informationen zu beantworten. Hier ist eine Übersicht des Prozesses:Aufnahme Ihrer Wissensdatenbank
- Inhaltsimport: Der KI-Agent von Lovi importiert alle Inhalte aus Ihren Wissensdatenbanken und prüft alle 24 Stunden auf Inhaltsaktualisierungen.
- Inhaltsaufteilung: Die Inhalte werden in kleinere Abschnitte unterteilt, die sich jeweils auf ein einzelnes Schlüsselkonzept konzentrieren. Diese Segmentierung ermöglicht es dem KI-Agenten, effizienter zu suchen. Jeder Abschnitt behält kontextuelle Informationen bei, einschließlich vorhergehender Überschriften.
- Embedding-Erstellung: Jeder Abschnitt wird von einem Large Language Model (LLM) verarbeitet, um numerische Darstellungen, sogenannte Embeddings, zu erzeugen, die die Bedeutung des Inhalts erfassen. Diese Embeddings werden in einer Datenbank für schnellen Abruf gespeichert.
Antwortgenerierung
- Anfrageverarbeitung: Wenn ein Kunde eine Anfrage stellt, wandelt der KI-Agent von Lovi diese mithilfe des LLM in ein Embedding um. Anschließend führt er eine Moderationsprüfung durch, um unangemessene oder toxische Inhalte herauszufiltern.
- Semantischer Abruf: Der KI-Agent vergleicht das Embedding der Anfrage mit denen in seiner Datenbank, um die semantisch ähnlichsten Inhaltsabschnitte zu identifizieren. Er wählt die drei relevantesten Abschnitte aus, um eine Antwort zu formulieren.
- Kontextverständnis: Bei Folgefragen kann der KI-Agent die Anfrage umformulieren, um den vorherigen Gesprächskontext einzubeziehen und so die Relevanz der abgerufenen Informationen zu erhöhen.
- Antwortgenerierung: Die ausgewählten Inhaltsabschnitte werden an GPT gesendet, um eine natürlich klingende Antwort zu erstellen. Diese Antwort durchläuft drei Filter, um sicherzustellen, dass sie sicher, relevant und korrekt ist, bevor sie dem Kunden zugestellt wird.
