Documentation Index
Fetch the complete documentation index at: https://docs.lovi.ai/llms.txt
Use this file to discover all available pages before exploring further.
Scopri come funziona il tuo Agente AI
L’Agente AI di Lovi sfrutta i Large Language Model (LLM) per interpretare le richieste dei clienti analizzando grandi quantità di dati testuali, consentendogli di comprendere l’intento dietro le domande. Utilizzando l’AI generativa, l’agente formula risposte assemblando informazioni dalla tua base di conoscenza in risposte naturali e conversazionali. Per garantire la qualità delle risposte, l’Agente AI utilizza filtri di contenuto che verificano che ogni risposta sia: • Dati: Ci sono informazioni relative a quella richiesta nella base di conoscenza. • Smalltalk: Interpreta che si tratta di una domanda o commento generico a cui è possibile rispondere. • Nessuna corrispondenza: Interpreta che si tratta di una domanda specifica che non esiste nella base di conoscenza ma che dovrebbe esistere. Il Reasoning Engine di Lovi potenzia ulteriormente le capacità dell’Agente AI considerando: • Contesto della conversazione: Interazioni precedenti per fornire risposte coerenti. • Base di conoscenza: Disponibilità di informazioni pertinenti. • Sistemi aziendali: Azioni configurate che consentono all’agente di recuperare le informazioni necessarie. Sulla base di questa analisi, l’Agente AI determina il corso d’azione appropriato, come porre domande di follow-up, fornire informazioni dalla base di conoscenza o eseguire azioni configurate per assistere il cliente in modo efficace.Come il tuo Agente AI genera contenuti dalla tua base di conoscenza
Quando colleghi la tua base di conoscenza all’Agente AI di Lovi, questo acquisisce i tuoi contenuti per fornire in modo efficiente informazioni pertinenti alle richieste dei clienti. Ecco una panoramica del processo:Acquisizione della tua base di conoscenza
- Importazione dei contenuti: L’Agente AI di Lovi importa tutti i contenuti dalle tue basi di conoscenza e verifica eventuali aggiornamenti dei contenuti ogni 24 ore.
- Suddivisione dei contenuti: I contenuti vengono divisi in sezioni più piccole, ciascuna focalizzata su un singolo concetto chiave. Questa segmentazione consente all’Agente AI di cercare in modo più efficiente. Ogni frammento conserva informazioni contestuali, inclusi i titoli precedenti.
- Creazione degli embedding: Ogni frammento viene elaborato da un Large Language Model (LLM) per generare rappresentazioni numeriche, note come embedding, che catturano il significato del contenuto. Questi embedding vengono memorizzati in un database per un rapido recupero.
Generazione delle risposte
- Elaborazione della richiesta: Quando un cliente invia una richiesta, l’Agente AI di Lovi la converte in un embedding utilizzando l’LLM. Poi esegue un controllo di moderazione per filtrare contenuti inappropriati o tossici.
- Recupero semantico: L’Agente AI confronta l’embedding della richiesta con quelli nel suo database per identificare i frammenti di contenuto semanticamente più simili. Seleziona i tre frammenti più pertinenti per formulare una risposta.
- Comprensione contestuale: Per le domande di follow-up, l’Agente AI può riformulare la richiesta per incorporare il contesto della conversazione precedente, migliorando la pertinenza delle informazioni recuperate.
- Generazione della risposta: I frammenti di contenuto selezionati vengono inviati a GPT per costruire una risposta dal suono naturale. Questa risposta viene sottoposta a tre filtri per garantire che sia sicura, pertinente e accurata prima di essere consegnata al cliente.
