Documentation Index
Fetch the complete documentation index at: https://docs.lovi.ai/llms.txt
Use this file to discover all available pages before exploring further.
Compreneu com funciona el vostre Agent IA
L’Agent IA de Lovi aprofita els Models de Llenguatge de Gran Escala (LLM) per interpretar les consultes dels clients analitzant dades de text extenses, permetent-li discernir la intenció darrere de les preguntes. Utilitzant la IA generativa, l’agent formula respostes assemblant informació de la vostra base de coneixement en respostes naturals i conversacionals. Per garantir la qualitat de les respostes, l’Agent IA empra filtres de contingut que verifiquen que cada resposta és: • Dades: Hi ha informació sobre aquesta consulta a la base de coneixement. • Smalltalk: Interpreta que es tracta d’una pregunta o comentari genèric que es pot respondre. • Sense coincidència: Interpreta que és una pregunta específica que no existeix a la base de coneixement però que hi hauria d’existir. El Motor de Raonament de Lovi millora encara més les capacitats de l’Agent IA tenint en compte: • Context de la conversa: Interaccions prèvies per proporcionar respostes coherents. • Base de coneixement: Disponibilitat d’informació pertinent. • Sistemes empresarials: Accions configurades que permeten a l’agent recuperar la informació necessària. Basant-se en aquesta anàlisi, l’Agent IA determina el curs d’acció adequat, com ara fer preguntes de seguiment, proporcionar informació de la base de coneixement o executar accions configurades per ajudar el client de manera eficaç.Com genera contingut el vostre Agent IA a partir de la base de coneixement
Quan connecteu la vostra base de coneixement a l’Agent IA de Lovi, aquest ingereix el vostre contingut per proporcionar eficientment informació rellevant a les consultes dels clients. Aquí teniu una visió general del procés:Ingestió de la vostra Base de Coneixement
- Importació de contingut: L’Agent IA de Lovi importa tot el contingut de les vostres bases de coneixement i comprova si hi ha actualitzacions de contingut cada 24 hores.
- Segmentació del contingut: El contingut es divideix en seccions més petites, cadascuna centrada en un concepte clau. Aquesta segmentació permet a l’Agent IA cercar de manera més eficient. Cada fragment conserva informació contextual, incloent-hi els encapçalaments precedents.
- Creació d’embeddings: Cada fragment és processat per un Model de Llenguatge de Gran Escala (LLM) per generar representacions numèriques, conegudes com a embeddings, que capturen el significat del contingut. Aquests embeddings s’emmagatzemen en una base de dades per a una recuperació ràpida.
Generació de respostes
- Processament de la consulta: Quan un client envia una consulta, l’Agent IA de Lovi la converteix en un embedding utilitzant el LLM. A continuació, realitza una comprovació de moderació per filtrar contingut inapropiat o tòxic.
- Recuperació semàntica: L’Agent IA compara l’embedding de la consulta amb els de la seva base de dades per identificar els fragments de contingut semànticament més similars. Selecciona els tres fragments més rellevants per formular una resposta.
- Comprensió contextual: Per a preguntes de seguiment, l’Agent IA pot reformular la consulta per incorporar el context de la conversa anterior, millorant la rellevància de la informació recuperada.
- Generació de la resposta: Els fragments de contingut seleccionats s’envien a GPT per construir una resposta de so natural. Aquesta resposta passa per tres filtres per garantir que és segura, rellevant i precisa abans de ser lliurada al client.
