Assistants da Open AI vs RAG no N8N - Qual é o melhor?
HTML-код
- Опубликовано: 29 сен 2024
- Hoje comparei os agentes prontos do n8n com RAG no Supabase com o File Search da Open AI.
o Workflow do vídeo foi copiado de outro canal, foi feito só para comparar:
• This RAG AI Agent with...
Quer construir bots e automações inteligentes? Faça parte da Comunidade AI Builders:
aibuilders.com...
Construa seu primeiro bot em 81 minutos:
aibuilders.com...
--
Me siga!
Linkedin: / andrefprado
X: x.com/andrehfp
Instagram: / andrefprado
André, não entendi essa parte de você ter configurado o Postgres como memória e o histórico ter sido salvo no Supabase. Se puder gravar um vídeo disso mesmo, seria ótimo.
Estou usando o Redis como memória, mas só em alguns testes parece que ele já usou 10% do espaço do plano free. Não sei usar o Postgres, mas tenho ele na minha VPS, então pode acabar sendo uma alternativa melhor mesmo.
é que é o postgres do supabase
o banco de dados do supabase é o postgres
André, não é bug do n8n, é assim que a estrutura de dados funciona!
mas antes funcionava de outro jeito
dessa forma ficou péssimo trabalhar com certas features no n8n
@@AndrePrado Acho que ficou confuso, ele sempre foi assim, quando não se passa um objeto json: {[]} nem que seja vazio, o nó não tem como ser referenciado, então ele para o fluxo, talvez você nunca tenha percebido, mas é assim que funciona o javascript, se ele tentasse consumir o nó sem nem um objeto vazio o nó continuaria com null e de qualquer jeito nao funcionaria.
eu sinceramente NUNCA tinha tido esse problema antes, agora até no switch tem dado esse problema, e tem causado suporte pra caramba pra nós hahahahah
O dify me salva nesses quesitos com maestria
o dify é muito bom, eu confesso que usei só uma vez e achei ok, mas a galera que eu tenho contato não gosta tanto não
Show! Ótimo vídeo Andre. Estou na comunidade desde o lançamento, mas não consegui avançar muito no N8N e nos projetos
Tenho usado mais o Flowise para RAG, Chat. A versão 2 incluiu vários recursos, sendo possível um resultado como o seu mostrado no vídeo
Só um comentário que tenho usado no Flowise é combinar o modelo do LLM, Embeding e Chat do mesmo fornecedor, quando possível.
Acredito que faça um diferente, como bem mostrado no vídeo
Vida longa a Ai Builders! Vlw
Fala André. Primeiramente parabéns pelo vídeo. Agora uma duvida: olhando a pouca quantidade de linhas no BD, esse chunck não tá grande demais? Se você tem 7 ou 8 linhas no Supabase e vc retorna 20 pedaços do arquivo ele não irá retornar o arquivo inteiro neste caso?
obrigado!
o chunk vai buscar no arquivo 20 pedaços do arquivo que tem a ver com a pergunta, mas realmente, ele deve trazer o arquivo todo praticamente hahahah
vou fazer mais uns testes sobre isso, mas só repliquei as configurações da propria open ai
@@AndrePrado sim. Perfeito. Eu compreendi. Apenas fiquei encucado com isso. Pois pelo que entendi, cada chunck equivale a uma linha no supabase.... até acho que pra conteúdos menores seria interessante fazer o Chuck por parágrafos, ou até por linhas em uma tabela. Acho que pra Q&A funcionaria bem. De repente sai um vídeo sobre isso? Rsrs abraços
não sei se equivale a uma linha, sinceramente...precisamos fazer testes sobre isso
Eu uso FAISS para fazer esse armazenamento já que utilizo o chatbot localmente pra mim mesmo.
sensacional! overlap seria sobreposição na tradução literal. E tem que usar a versão paga do Open AI para fazer essas automações?. Ah voce respondeu no proprio video com o FAQ
Excelente conteúdo! Parabéns! Gratidão!
top André !
Muito bom o conteúdo, comparação de primeira!!!!
Agora sim!!!!!!!! André, a pergunta para tirar um 10... Vocês vão regravar o Automaster, Book keeper, 8Guru e o Tech Tutor, utilizando os agentes de IA do n8n? Obs. como sempre, você só trás conteúdo de primeira!!!!!
não temos nada planejado nesse sentido, mas com o que você aprende no curso, fazer isso aí é fácil demais.
talvez a gente faça, mas não oficialmente no curso, e sim como bônus na comunidade
Valeu André, muito show, se possível eu gostaria de ver na comunidade ou aqui testes com o Google Gemini, ele também tem chamadas de função e tem modelos como o flash que são concorrentes diretos do GPT4o-mini, porém é Gemini tem um preço por 1M bem menor.
boa ideia Mauricio! vamos fazer algo assim sim, acho interessante essas comparações
Show. Poderia compartilhar o arquivo do Workflow?
cara, vou fazer um github pra vcs poderem baixar os workflows, mas até lá, no vídeo original (que tá na descrição) tem o github do cara que fez =)
Muito bom o vídeo. Eu tinha já replicado aqui esse workflow. Achei interessante... mas para mim e não sei se para você já aconteceu, ele vai bem para arquivos pequenos... se você precisa usar para arquivos um pouco maiores trava. E em produção a gente se depara com um banco de dados maior.
acho que é uma questão de melhorar algumas variáveis, como o modelo, temperatura, chunks e overlaps no embedding...semana que vem vai sair um vídeo no meu canal onde eu mostro esse workflow numa aplicação prática
@@AndrePrado Obrigado por responder. Particulamente meu problema foi para uma chatbot de imobiliária. São 1000 imóveis com suas características. Isso foi demais para o vector... rs Tentei supabase, pinecone ( mais fácil de configurar). Já inscrito e curtindo os vídeos. abs
vou testar uma estratégia pra isso, mas não garanto, se der certo posto aqui no yt
Eu uso pra buscar dados em uma planilha csv
ótima ideia também
@@AndrePrado não tinha pensado na opção de atualizar de forma autoamatica, vou implementar
é bom né? deixa tudo automático, dá pra fazer vários agentes que aprendem sozinhos e se atualizam automaticamente dessa forma
Cara, profunda admiração pelo seu trabalho e por sua pessoa. E vou dar o "play" no vídeo agora
muito obrigado! espero que tenha gostado do vídeo