Comprende cómo funciona tu Agente de IA
El Agente de IA de Lovi utiliza Modelos de Lenguaje a Gran Escala (LLMs) para interpretar las consultas de los clientes analizando grandes volúmenes de datos de texto, lo que le permite identificar la intención detrás de las preguntas. Mediante IA generativa, el agente formula respuestas ensamblando información de tu base de conocimiento en respuestas conversacionales y naturales. Para garantizar la calidad de las respuestas, el Agente de IA emplea filtros de contenido que verifican que cada respuesta sea: • Datos: Existe información sobre esa consulta en la base de conocimiento. • Conversación casual: Interpreta que se trata de una pregunta o comentario genérico que puede responderse. • Sin coincidencia: Interpreta que es una pregunta específica que no existe en la base de conocimiento pero debería existir. El Motor de Razonamiento de Lovi mejora aún más las capacidades del Agente de IA considerando: • Contexto de la conversación: Interacciones previas para ofrecer respuestas coherentes. • Base de conocimiento: Disponibilidad de información pertinente. • Sistemas de negocio: Acciones configuradas que permiten al agente recuperar la información necesaria. Basándose en este análisis, el Agente de IA determina el curso de acción apropiado, como hacer preguntas de seguimiento, proporcionar información de la base de conocimiento o ejecutar acciones configuradas para asistir al cliente de manera efectiva.Cómo genera contenido tu Agente de IA a partir de tu base de conocimiento
Cuando conectas tu base de conocimiento al Agente de IA de Lovi, este ingiere tu contenido para proporcionar información relevante de forma eficiente a las consultas de los clientes. A continuación se ofrece una descripción general del proceso:Ingestión de tu Base de Conocimiento
- Importación de contenido: El Agente de IA de Lovi importa todo el contenido de tus bases de conocimiento y comprueba si hay actualizaciones de contenido cada 24 horas.
- Segmentación del contenido: El contenido se divide en secciones más pequeñas, cada una centrada en un concepto clave. Esta segmentación permite al Agente de IA buscar de forma más eficiente. Cada fragmento conserva información contextual, incluidos los encabezados anteriores.
- Creación de incrustaciones: Cada fragmento es procesado por un Modelo de Lenguaje a Gran Escala (LLM) para generar representaciones numéricas, conocidas como incrustaciones, que capturan el significado del contenido. Estas incrustaciones se almacenan en una base de datos para su recuperación rápida.
Generación de Respuestas
- Procesamiento de consultas: Cuando un cliente envía una consulta, el Agente de IA de Lovi la convierte en una incrustación mediante el LLM. Luego realiza una comprobación de moderación para filtrar contenido inapropiado o tóxico.
- Recuperación semántica: El Agente de IA compara la incrustación de la consulta con las de su base de datos para identificar los fragmentos de contenido semánticamente más similares. Selecciona los tres fragmentos más relevantes para formular una respuesta.
- Comprensión contextual: Para preguntas de seguimiento, el Agente de IA puede reformular la consulta para incorporar el contexto de la conversación anterior, mejorando la relevancia de la información recuperada.
- Generación de respuestas: Los fragmentos de contenido seleccionados se envían a GPT para construir una respuesta de sonido natural. Esta respuesta pasa por tres filtros para garantizar que sea segura, relevante y precisa antes de ser entregada al cliente.
