Show! Ótimo vídeo Andre. Estou na comunidade desde o lançamento, mas não consegui avançar muito no N8N e nos projetos Tenho usado mais o Flowise para RAG, Chat. A versão 2 incluiu vários recursos, sendo possível um resultado como o seu mostrado no vídeo Só um comentário que tenho usado no Flowise é combinar o modelo do LLM, Embeding e Chat do mesmo fornecedor, quando possível. Acredito que faça um diferente, como bem mostrado no vídeo Vida longa a Ai Builders! Vlw
Muito bom o vídeo. Eu tinha já replicado aqui esse workflow. Achei interessante... mas para mim e não sei se para você já aconteceu, ele vai bem para arquivos pequenos... se você precisa usar para arquivos um pouco maiores trava. E em produção a gente se depara com um banco de dados maior.
acho que é uma questão de melhorar algumas variáveis, como o modelo, temperatura, chunks e overlaps no embedding...semana que vem vai sair um vídeo no meu canal onde eu mostro esse workflow numa aplicação prática
@@AndrePrado Obrigado por responder. Particulamente meu problema foi para uma chatbot de imobiliária. São 1000 imóveis com suas características. Isso foi demais para o vector... rs Tentei supabase, pinecone ( mais fácil de configurar). Já inscrito e curtindo os vídeos. abs
sensacional! overlap seria sobreposição na tradução literal. E tem que usar a versão paga do Open AI para fazer essas automações?. Ah voce respondeu no proprio video com o FAQ
Valeu André, muito show, se possível eu gostaria de ver na comunidade ou aqui testes com o Google Gemini, ele também tem chamadas de função e tem modelos como o flash que são concorrentes diretos do GPT4o-mini, porém é Gemini tem um preço por 1M bem menor.
Agora sim!!!!!!!! André, a pergunta para tirar um 10... Vocês vão regravar o Automaster, Book keeper, 8Guru e o Tech Tutor, utilizando os agentes de IA do n8n? Obs. como sempre, você só trás conteúdo de primeira!!!!!
não temos nada planejado nesse sentido, mas com o que você aprende no curso, fazer isso aí é fácil demais. talvez a gente faça, mas não oficialmente no curso, e sim como bônus na comunidade
@@AndrePrado Acho que ficou confuso, ele sempre foi assim, quando não se passa um objeto json: {[]} nem que seja vazio, o nó não tem como ser referenciado, então ele para o fluxo, talvez você nunca tenha percebido, mas é assim que funciona o javascript, se ele tentasse consumir o nó sem nem um objeto vazio o nó continuaria com null e de qualquer jeito nao funcionaria.
Fala André. Primeiramente parabéns pelo vídeo. Agora uma duvida: olhando a pouca quantidade de linhas no BD, esse chunck não tá grande demais? Se você tem 7 ou 8 linhas no Supabase e vc retorna 20 pedaços do arquivo ele não irá retornar o arquivo inteiro neste caso?
obrigado! o chunk vai buscar no arquivo 20 pedaços do arquivo que tem a ver com a pergunta, mas realmente, ele deve trazer o arquivo todo praticamente hahahah vou fazer mais uns testes sobre isso, mas só repliquei as configurações da propria open ai
@@AndrePrado sim. Perfeito. Eu compreendi. Apenas fiquei encucado com isso. Pois pelo que entendi, cada chunck equivale a uma linha no supabase.... até acho que pra conteúdos menores seria interessante fazer o Chuck por parágrafos, ou até por linhas em uma tabela. Acho que pra Q&A funcionaria bem. De repente sai um vídeo sobre isso? Rsrs abraços
top, uma pergunta, no assistants da openai, tem como criar uma hierarquia de agentes exemplo: escritório de advocacia tem a agente Nori que faz o pre atendimento - agente Pedro que é da área trabalhista - agente Eva da saude - agente Luca do criminal. a Nori faria o pre atendimento e vendo que o lead quer fala sobre direito criminal passaria pro Luca. enfim o RelevanceAI faz esse tipo de coisa ne? o n8n tb é capaz de fazer isso e o assistasts openai tb consegui criar ? vlw😜
André... Teoricamente se eu colocar dados de metricas do Facebook no sheets e depois no vector store eu consigo solicitar depois para essa IA me retornar algum resultado específico? Por exemplo, qual é o ctr da campanha x?
André, não entendi essa parte de você ter configurado o Postgres como memória e o histórico ter sido salvo no Supabase. Se puder gravar um vídeo disso mesmo, seria ótimo. Estou usando o Redis como memória, mas só em alguns testes parece que ele já usou 10% do espaço do plano free. Não sei usar o Postgres, mas tenho ele na minha VPS, então pode acabar sendo uma alternativa melhor mesmo.
@@AndrePrado acho que me expressei mal, para fazer os embeddings estou usando a bge-m3 que funciona bem, o problema é responderem os prompts que são gerados com mais de 10000 tokens quando reúne o prompt inicial mais os textos dos vetores, acredito que tem que ser uma muito forte para conseguir responder corretamente, já testei llama3.2, qwen2.5, gemma2, nenhuma consegue responder os prompts, saem respostas totalmente alucinadas, se o uso o gemini-1.5-flash funciona que é uma beleza, enquanto tem um limite gratuito bom ainda é de boa, mas quando cortarem isso q deve ser questão de tempo aí vai ser só pagando mesmo ou arrumando uma máquina muito parruda para conseguir lidar com esse processamento que nem deve valer a pena pelo gasto e consumo.
sim! você precisa trocar no seu agente a opção de prompt, ao invés de pegar do último nó vc precisa definir abaixo e puxar a mensagem que chega do whatsapp
@@AndrePrado fiz funcionar professor, mas no Supabase Vector da esse erro: { "errorMessage": "Error searching for documents: PGRST202 Could not find the function public.match_documents(filter, match_count, query_embedding) in the schema cache Searched for the function public.match_documents with parameters filter, match_count, query_embedding or with a single unnamed json/jsonb parameter, but no matches were found in the schema cache.", "errorDescription": "Error searching for documents: PGRST202 Could not find the function public.match_documents(filter, match_count, query_embedding) in the schema cache Searched for the function public.match_documents with parameters filter, match_count, query_embedding or with a single unnamed json/jsonb parameter, but no matches were found in the schema cache.", "errorDetails": {}, "n8nDetails": { "time": "25/10/2024, 11:45:42", "n8nVersion": "1.63.4 (Self Hosted)", "binaryDataMode": "default", "cause": {} } }
Cara, profunda admiração pelo seu trabalho e por sua pessoa. E vou dar o "play" no vídeo agora
muito obrigado! espero que tenha gostado do vídeo
Show! Ótimo vídeo Andre. Estou na comunidade desde o lançamento, mas não consegui avançar muito no N8N e nos projetos
Tenho usado mais o Flowise para RAG, Chat. A versão 2 incluiu vários recursos, sendo possível um resultado como o seu mostrado no vídeo
Só um comentário que tenho usado no Flowise é combinar o modelo do LLM, Embeding e Chat do mesmo fornecedor, quando possível.
Acredito que faça um diferente, como bem mostrado no vídeo
Vida longa a Ai Builders! Vlw
Eu uso FAISS para fazer esse armazenamento já que utilizo o chatbot localmente pra mim mesmo.
O dify me salva nesses quesitos com maestria
o dify é muito bom, eu confesso que usei só uma vez e achei ok, mas a galera que eu tenho contato não gosta tanto não
Muito bom o conteúdo, comparação de primeira!!!!
Excelente conteúdo! Parabéns! Gratidão!
Muito bom o vídeo. Eu tinha já replicado aqui esse workflow. Achei interessante... mas para mim e não sei se para você já aconteceu, ele vai bem para arquivos pequenos... se você precisa usar para arquivos um pouco maiores trava. E em produção a gente se depara com um banco de dados maior.
acho que é uma questão de melhorar algumas variáveis, como o modelo, temperatura, chunks e overlaps no embedding...semana que vem vai sair um vídeo no meu canal onde eu mostro esse workflow numa aplicação prática
@@AndrePrado Obrigado por responder. Particulamente meu problema foi para uma chatbot de imobiliária. São 1000 imóveis com suas características. Isso foi demais para o vector... rs Tentei supabase, pinecone ( mais fácil de configurar). Já inscrito e curtindo os vídeos. abs
vou testar uma estratégia pra isso, mas não garanto, se der certo posto aqui no yt
sensacional! overlap seria sobreposição na tradução literal. E tem que usar a versão paga do Open AI para fazer essas automações?. Ah voce respondeu no proprio video com o FAQ
Valeu André, muito show, se possível eu gostaria de ver na comunidade ou aqui testes com o Google Gemini, ele também tem chamadas de função e tem modelos como o flash que são concorrentes diretos do GPT4o-mini, porém é Gemini tem um preço por 1M bem menor.
boa ideia Mauricio! vamos fazer algo assim sim, acho interessante essas comparações
Agora sim!!!!!!!! André, a pergunta para tirar um 10... Vocês vão regravar o Automaster, Book keeper, 8Guru e o Tech Tutor, utilizando os agentes de IA do n8n? Obs. como sempre, você só trás conteúdo de primeira!!!!!
não temos nada planejado nesse sentido, mas com o que você aprende no curso, fazer isso aí é fácil demais.
talvez a gente faça, mas não oficialmente no curso, e sim como bônus na comunidade
top André !
André, não é bug do n8n, é assim que a estrutura de dados funciona!
mas antes funcionava de outro jeito
dessa forma ficou péssimo trabalhar com certas features no n8n
@@AndrePrado Acho que ficou confuso, ele sempre foi assim, quando não se passa um objeto json: {[]} nem que seja vazio, o nó não tem como ser referenciado, então ele para o fluxo, talvez você nunca tenha percebido, mas é assim que funciona o javascript, se ele tentasse consumir o nó sem nem um objeto vazio o nó continuaria com null e de qualquer jeito nao funcionaria.
eu sinceramente NUNCA tinha tido esse problema antes, agora até no switch tem dado esse problema, e tem causado suporte pra caramba pra nós hahahahah
Fala André. Primeiramente parabéns pelo vídeo. Agora uma duvida: olhando a pouca quantidade de linhas no BD, esse chunck não tá grande demais? Se você tem 7 ou 8 linhas no Supabase e vc retorna 20 pedaços do arquivo ele não irá retornar o arquivo inteiro neste caso?
obrigado!
o chunk vai buscar no arquivo 20 pedaços do arquivo que tem a ver com a pergunta, mas realmente, ele deve trazer o arquivo todo praticamente hahahah
vou fazer mais uns testes sobre isso, mas só repliquei as configurações da propria open ai
@@AndrePrado sim. Perfeito. Eu compreendi. Apenas fiquei encucado com isso. Pois pelo que entendi, cada chunck equivale a uma linha no supabase.... até acho que pra conteúdos menores seria interessante fazer o Chuck por parágrafos, ou até por linhas em uma tabela. Acho que pra Q&A funcionaria bem. De repente sai um vídeo sobre isso? Rsrs abraços
não sei se equivale a uma linha, sinceramente...precisamos fazer testes sobre isso
Excelente vídeo, e possível compartilhar esse workflow?
obrigado!
vou criar um github e disponibilizar esses workflows pra vcs, mas ainda não está disponível
ah! mas na descrição desse vídeo tem o link pro canal que fez esse workflow originalmente, e lá tem o link pra baixar =)
@@AndrePrado eu vi o vídeo que usou e entrei no git dele, obrigado por responder
Como foi criado a coluna embedding do tipo vector?
opa, na própria documentação do supabase tem a sql pra fazer isso
supabase.com/docs/guides/ai/langchain?database-method=sql
espero que te ajude!
@@AndrePrado eu usei ia do postgres e me respondeu que tinha que instalar um plugin fiz e deu certo
top, uma pergunta, no assistants da openai, tem como criar uma hierarquia de agentes exemplo:
escritório de advocacia tem a agente Nori que faz o pre atendimento - agente Pedro que é da área trabalhista
- agente Eva da saude - agente Luca do criminal.
a Nori faria o pre atendimento e vendo que o lead quer fala sobre direito criminal passaria pro Luca.
enfim o RelevanceAI faz esse tipo de coisa ne? o n8n tb é capaz de fazer isso e o assistasts openai tb consegui criar ?
vlw😜
opa, obrigado pela pergunta!
é possível sim fazer pelo n8n, vc pode conectar e rotear atendimentos pra vários assistants sem nenhum problema :)
André... Teoricamente se eu colocar dados de metricas do Facebook no sheets e depois no vector store eu consigo solicitar depois para essa IA me retornar algum resultado específico? Por exemplo, qual é o ctr da campanha x?
pode sim, mas nesse caso eu usaria a estratégia de buscar direto num banco de dados normal com function calling
André, não entendi essa parte de você ter configurado o Postgres como memória e o histórico ter sido salvo no Supabase. Se puder gravar um vídeo disso mesmo, seria ótimo.
Estou usando o Redis como memória, mas só em alguns testes parece que ele já usou 10% do espaço do plano free. Não sei usar o Postgres, mas tenho ele na minha VPS, então pode acabar sendo uma alternativa melhor mesmo.
é que é o postgres do supabase
o banco de dados do supabase é o postgres
Show. Poderia compartilhar o arquivo do Workflow?
cara, vou fazer um github pra vcs poderem baixar os workflows, mas até lá, no vídeo original (que tá na descrição) tem o github do cara que fez =)
as open source são péssimas com vetores, se achar alguma que preste avise por favor, estou usando a api gratuita da gemini e funciona muito bem
o Jina ai lançou um modelo de embedding, vale a pena dar uma olhada
@@AndrePrado acho que me expressei mal, para fazer os embeddings estou usando a bge-m3 que funciona bem, o problema é responderem os prompts que são gerados com mais de 10000 tokens quando reúne o prompt inicial mais os textos dos vetores, acredito que tem que ser uma muito forte para conseguir responder corretamente, já testei llama3.2, qwen2.5, gemma2, nenhuma consegue responder os prompts, saem respostas totalmente alucinadas, se o uso o gemini-1.5-flash funciona que é uma beleza, enquanto tem um limite gratuito bom ainda é de boa, mas quando cortarem isso q deve ser questão de tempo aí vai ser só pagando mesmo ou arrumando uma máquina muito parruda para conseguir lidar com esse processamento que nem deve valer a pena pelo gasto e consumo.
Eu uso pra buscar dados em uma planilha csv
ótima ideia também
@@AndrePrado não tinha pensado na opção de atualizar de forma autoamatica, vou implementar
é bom né? deixa tudo automático, dá pra fazer vários agentes que aprendem sozinhos e se atualizam automaticamente dessa forma
Professor tentei colocar o whatsapp porem não deu certo pois não retorna o chat Input e ai da erro, consegue me dar um norte para essa solução?
sim! você precisa trocar no seu agente a opção de prompt, ao invés de pegar do último nó vc precisa definir abaixo e puxar a mensagem que chega do whatsapp
@@AndrePrado ja tentei e da erro
então o erro é outro, não é esse
@@AndrePrado fiz funcionar professor, mas no Supabase Vector da esse erro: {
"errorMessage": "Error searching for documents: PGRST202 Could not find the function public.match_documents(filter, match_count, query_embedding) in the schema cache Searched for the function public.match_documents with parameters filter, match_count, query_embedding or with a single unnamed json/jsonb parameter, but no matches were found in the schema cache.",
"errorDescription": "Error searching for documents: PGRST202 Could not find the function public.match_documents(filter, match_count, query_embedding) in the schema cache Searched for the function public.match_documents with parameters filter, match_count, query_embedding or with a single unnamed json/jsonb parameter, but no matches were found in the schema cache.",
"errorDetails": {},
"n8nDetails": {
"time": "25/10/2024, 11:45:42",
"n8nVersion": "1.63.4 (Self Hosted)",
"binaryDataMode": "default",
"cause": {}
}
}
@@AndrePrado arrumei o erro que estava dando do match_documents