Documentation Index
Fetch the complete documentation index at: https://docs.lovi.ai/llms.txt
Use this file to discover all available pages before exploring further.
Entenda como seu Agente de IA funciona
O Agente de IA da Lovi utiliza Large Language Models (LLMs) para interpretar as consultas dos clientes, analisando extensos dados de texto, permitindo discernir a intenção por trás das perguntas. Utilizando IA generativa, o agente formula respostas reunindo informações da sua base de conhecimento em respostas naturais e conversacionais. Para garantir a qualidade das respostas, o Agente de IA emprega filtros de conteúdo que verificam cada resposta: • Dados: Existem informações sobre essa consulta na base de conhecimento. • Conversa casual: Interpreta que é uma pergunta ou comentário genérico que pode ser respondido. • Sem correspondência: Interpreta que é uma pergunta específica que não existe na base de conhecimento, mas deveria existir. O Motor de Raciocínio da Lovi aprimora ainda mais as capacidades do Agente de IA ao considerar: • Contexto da conversa: Interações anteriores para fornecer respostas coerentes. • Base de conhecimento: Disponibilidade de informações pertinentes. • Sistemas de negócio: Ações configuradas que permitem ao agente recuperar as informações necessárias. Com base nessa análise, o Agente de IA determina o curso de ação apropriado, como fazer perguntas de acompanhamento, fornecer informações da base de conhecimento ou executar ações configuradas para auxiliar o cliente de forma eficaz.Como seu Agente de IA gera conteúdo a partir da sua base de conhecimento
Quando você conecta sua base de conhecimento ao Agente de IA da Lovi, ele ingere seu conteúdo para fornecer eficientemente informações relevantes às consultas dos clientes. Aqui está uma visão geral do processo:Ingestão da Sua Base de Conhecimento
- Importação de Conteúdo: O Agente de IA da Lovi importa todo o conteúdo das suas bases de conhecimento e verifica atualizações de conteúdo a cada 24 horas.
- Fragmentação de Conteúdo: O conteúdo é dividido em seções menores, cada uma focando em um único conceito-chave. Essa segmentação permite que o Agente de IA pesquise de forma mais eficiente. Cada fragmento mantém informações contextuais, incluindo cabeçalhos anteriores.
- Criação de Embeddings: Cada fragmento é processado por um Large Language Model (LLM) para gerar representações numéricas, conhecidas como embeddings, que capturam o significado do conteúdo. Esses embeddings são armazenados em um banco de dados para recuperação rápida.
Geração de Respostas
- Processamento da Consulta: Quando um cliente envia uma consulta, o Agente de IA da Lovi a converte em um embedding usando o LLM. Em seguida, realiza uma verificação de moderação para filtrar conteúdo inadequado ou tóxico.
- Recuperação Semântica: O Agente de IA compara o embedding da consulta com aqueles em seu banco de dados para identificar os fragmentos de conteúdo mais semanticamente similares. Ele seleciona os três fragmentos mais relevantes para formular uma resposta.
- Compreensão Contextual: Para perguntas de acompanhamento, o Agente de IA pode reformular a consulta para incorporar o contexto da conversa anterior, aumentando a relevância das informações recuperadas.
- Geração de Resposta: Os fragmentos de conteúdo selecionados são enviados ao GPT para construir uma resposta com som natural. Essa resposta passa por três filtros para garantir que seja segura, relevante e precisa antes de ser entregue ao cliente.
