Assistants da Open AI vs RAG no N8N - Qual é o melhor?

Поделиться
HTML-код
  • Опубликовано: 17 ноя 2024

Комментарии • 54

  • @demetrioartur_semnexus
    @demetrioartur_semnexus 2 месяца назад +2

    Cara, profunda admiração pelo seu trabalho e por sua pessoa. E vou dar o "play" no vídeo agora

    • @AndrePrado
      @AndrePrado  Месяц назад

      muito obrigado! espero que tenha gostado do vídeo

  • @FelipeSantos-pe4rg
    @FelipeSantos-pe4rg Месяц назад

    Show! Ótimo vídeo Andre. Estou na comunidade desde o lançamento, mas não consegui avançar muito no N8N e nos projetos
    Tenho usado mais o Flowise para RAG, Chat. A versão 2 incluiu vários recursos, sendo possível um resultado como o seu mostrado no vídeo
    Só um comentário que tenho usado no Flowise é combinar o modelo do LLM, Embeding e Chat do mesmo fornecedor, quando possível.
    Acredito que faça um diferente, como bem mostrado no vídeo
    Vida longa a Ai Builders! Vlw

  • @cr7raposo
    @cr7raposo Месяц назад

    Eu uso FAISS para fazer esse armazenamento já que utilizo o chatbot localmente pra mim mesmo.

  • @CathiMusicoficial
    @CathiMusicoficial Месяц назад

    O dify me salva nesses quesitos com maestria

    • @AndrePrado
      @AndrePrado  Месяц назад

      o dify é muito bom, eu confesso que usei só uma vez e achei ok, mas a galera que eu tenho contato não gosta tanto não

  • @samusaw
    @samusaw 2 месяца назад

    Muito bom o conteúdo, comparação de primeira!!!!

  • @DouglasCamargoLeal
    @DouglasCamargoLeal 2 месяца назад

    Excelente conteúdo! Parabéns! Gratidão!

  • @consultoriavc
    @consultoriavc Месяц назад

    Muito bom o vídeo. Eu tinha já replicado aqui esse workflow. Achei interessante... mas para mim e não sei se para você já aconteceu, ele vai bem para arquivos pequenos... se você precisa usar para arquivos um pouco maiores trava. E em produção a gente se depara com um banco de dados maior.

    • @AndrePrado
      @AndrePrado  Месяц назад +1

      acho que é uma questão de melhorar algumas variáveis, como o modelo, temperatura, chunks e overlaps no embedding...semana que vem vai sair um vídeo no meu canal onde eu mostro esse workflow numa aplicação prática

    • @consultoriavc
      @consultoriavc Месяц назад +1

      @@AndrePrado Obrigado por responder. Particulamente meu problema foi para uma chatbot de imobiliária. São 1000 imóveis com suas características. Isso foi demais para o vector... rs Tentei supabase, pinecone ( mais fácil de configurar). Já inscrito e curtindo os vídeos. abs

    • @AndrePrado
      @AndrePrado  Месяц назад

      vou testar uma estratégia pra isso, mas não garanto, se der certo posto aqui no yt

  • @RicardoPorteladaSilva
    @RicardoPorteladaSilva 2 месяца назад

    sensacional! overlap seria sobreposição na tradução literal. E tem que usar a versão paga do Open AI para fazer essas automações?. Ah voce respondeu no proprio video com o FAQ

  • @mauriciomarques9969
    @mauriciomarques9969 Месяц назад

    Valeu André, muito show, se possível eu gostaria de ver na comunidade ou aqui testes com o Google Gemini, ele também tem chamadas de função e tem modelos como o flash que são concorrentes diretos do GPT4o-mini, porém é Gemini tem um preço por 1M bem menor.

    • @AndrePrado
      @AndrePrado  Месяц назад

      boa ideia Mauricio! vamos fazer algo assim sim, acho interessante essas comparações

  • @marioangelino
    @marioangelino 2 месяца назад

    Agora sim!!!!!!!! André, a pergunta para tirar um 10... Vocês vão regravar o Automaster, Book keeper, 8Guru e o Tech Tutor, utilizando os agentes de IA do n8n? Obs. como sempre, você só trás conteúdo de primeira!!!!!

    • @AndrePrado
      @AndrePrado  Месяц назад

      não temos nada planejado nesse sentido, mas com o que você aprende no curso, fazer isso aí é fácil demais.
      talvez a gente faça, mas não oficialmente no curso, e sim como bônus na comunidade

  • @albertojulio
    @albertojulio 2 месяца назад

    top André !

  • @matheus.maiberg
    @matheus.maiberg 2 месяца назад +3

    André, não é bug do n8n, é assim que a estrutura de dados funciona!

    • @AndrePrado
      @AndrePrado  Месяц назад

      mas antes funcionava de outro jeito
      dessa forma ficou péssimo trabalhar com certas features no n8n

    • @matheus.maiberg
      @matheus.maiberg Месяц назад +1

      ​@@AndrePrado Acho que ficou confuso, ele sempre foi assim, quando não se passa um objeto json: {[]} nem que seja vazio, o nó não tem como ser referenciado, então ele para o fluxo, talvez você nunca tenha percebido, mas é assim que funciona o javascript, se ele tentasse consumir o nó sem nem um objeto vazio o nó continuaria com null e de qualquer jeito nao funcionaria.

    • @AndrePrado
      @AndrePrado  Месяц назад

      eu sinceramente NUNCA tinha tido esse problema antes, agora até no switch tem dado esse problema, e tem causado suporte pra caramba pra nós hahahahah

  • @fernandokerber
    @fernandokerber Месяц назад

    Fala André. Primeiramente parabéns pelo vídeo. Agora uma duvida: olhando a pouca quantidade de linhas no BD, esse chunck não tá grande demais? Se você tem 7 ou 8 linhas no Supabase e vc retorna 20 pedaços do arquivo ele não irá retornar o arquivo inteiro neste caso?

    • @AndrePrado
      @AndrePrado  Месяц назад +1

      obrigado!
      o chunk vai buscar no arquivo 20 pedaços do arquivo que tem a ver com a pergunta, mas realmente, ele deve trazer o arquivo todo praticamente hahahah
      vou fazer mais uns testes sobre isso, mas só repliquei as configurações da propria open ai

    • @fernandokerber
      @fernandokerber Месяц назад +1

      @@AndrePrado sim. Perfeito. Eu compreendi. Apenas fiquei encucado com isso. Pois pelo que entendi, cada chunck equivale a uma linha no supabase.... até acho que pra conteúdos menores seria interessante fazer o Chuck por parágrafos, ou até por linhas em uma tabela. Acho que pra Q&A funcionaria bem. De repente sai um vídeo sobre isso? Rsrs abraços

    • @AndrePrado
      @AndrePrado  Месяц назад +1

      não sei se equivale a uma linha, sinceramente...precisamos fazer testes sobre isso

  • @lucenajjj
    @lucenajjj 27 дней назад

    Excelente vídeo, e possível compartilhar esse workflow?

    • @AndrePrado
      @AndrePrado  26 дней назад +1

      obrigado!
      vou criar um github e disponibilizar esses workflows pra vcs, mas ainda não está disponível

    • @AndrePrado
      @AndrePrado  26 дней назад +1

      ah! mas na descrição desse vídeo tem o link pro canal que fez esse workflow originalmente, e lá tem o link pra baixar =)

    • @lucenajjj
      @lucenajjj 26 дней назад

      @@AndrePrado eu vi o vídeo que usou e entrei no git dele, obrigado por responder

  • @lucenajjj
    @lucenajjj 26 дней назад +1

    Como foi criado a coluna embedding do tipo vector?

    • @AndrePrado
      @AndrePrado  26 дней назад +1

      opa, na própria documentação do supabase tem a sql pra fazer isso
      supabase.com/docs/guides/ai/langchain?database-method=sql
      espero que te ajude!

    • @lucenajjj
      @lucenajjj 26 дней назад

      @@AndrePrado eu usei ia do postgres e me respondeu que tinha que instalar um plugin fiz e deu certo

  • @ekii.britto
    @ekii.britto Месяц назад

    top, uma pergunta, no assistants da openai, tem como criar uma hierarquia de agentes exemplo:
    escritório de advocacia tem a agente Nori que faz o pre atendimento - agente Pedro que é da área trabalhista
    - agente Eva da saude - agente Luca do criminal.
    a Nori faria o pre atendimento e vendo que o lead quer fala sobre direito criminal passaria pro Luca.
    enfim o RelevanceAI faz esse tipo de coisa ne? o n8n tb é capaz de fazer isso e o assistasts openai tb consegui criar ?
    vlw😜

    • @AndrePrado
      @AndrePrado  Месяц назад +1

      opa, obrigado pela pergunta!
      é possível sim fazer pelo n8n, vc pode conectar e rotear atendimentos pra vários assistants sem nenhum problema :)

  • @LeoSilva-dg4qr
    @LeoSilva-dg4qr Месяц назад

    André... Teoricamente se eu colocar dados de metricas do Facebook no sheets e depois no vector store eu consigo solicitar depois para essa IA me retornar algum resultado específico? Por exemplo, qual é o ctr da campanha x?

    • @AndrePrado
      @AndrePrado  Месяц назад

      pode sim, mas nesse caso eu usaria a estratégia de buscar direto num banco de dados normal com function calling

  • @trafegobempago
    @trafegobempago Месяц назад

    André, não entendi essa parte de você ter configurado o Postgres como memória e o histórico ter sido salvo no Supabase. Se puder gravar um vídeo disso mesmo, seria ótimo.
    Estou usando o Redis como memória, mas só em alguns testes parece que ele já usou 10% do espaço do plano free. Não sei usar o Postgres, mas tenho ele na minha VPS, então pode acabar sendo uma alternativa melhor mesmo.

    • @AndrePrado
      @AndrePrado  Месяц назад

      é que é o postgres do supabase
      o banco de dados do supabase é o postgres

  • @Cebolinha1999
    @Cebolinha1999 Месяц назад +1

    Show. Poderia compartilhar o arquivo do Workflow?

    • @AndrePrado
      @AndrePrado  Месяц назад

      cara, vou fazer um github pra vcs poderem baixar os workflows, mas até lá, no vídeo original (que tá na descrição) tem o github do cara que fez =)

  • @cleiton20
    @cleiton20 24 дня назад

    as open source são péssimas com vetores, se achar alguma que preste avise por favor, estou usando a api gratuita da gemini e funciona muito bem

    • @AndrePrado
      @AndrePrado  23 дня назад

      o Jina ai lançou um modelo de embedding, vale a pena dar uma olhada

    • @cleiton20
      @cleiton20 23 дня назад

      @@AndrePrado acho que me expressei mal, para fazer os embeddings estou usando a bge-m3 que funciona bem, o problema é responderem os prompts que são gerados com mais de 10000 tokens quando reúne o prompt inicial mais os textos dos vetores, acredito que tem que ser uma muito forte para conseguir responder corretamente, já testei llama3.2, qwen2.5, gemma2, nenhuma consegue responder os prompts, saem respostas totalmente alucinadas, se o uso o gemini-1.5-flash funciona que é uma beleza, enquanto tem um limite gratuito bom ainda é de boa, mas quando cortarem isso q deve ser questão de tempo aí vai ser só pagando mesmo ou arrumando uma máquina muito parruda para conseguir lidar com esse processamento que nem deve valer a pena pelo gasto e consumo.

  • @imoveisemgoiania7172
    @imoveisemgoiania7172 2 месяца назад

    Eu uso pra buscar dados em uma planilha csv

    • @AndrePrado
      @AndrePrado  2 месяца назад

      ótima ideia também

    • @imoveisemgoiania7172
      @imoveisemgoiania7172 2 месяца назад

      @@AndrePrado não tinha pensado na opção de atualizar de forma autoamatica, vou implementar

    • @AndrePrado
      @AndrePrado  Месяц назад

      é bom né? deixa tudo automático, dá pra fazer vários agentes que aprendem sozinhos e se atualizam automaticamente dessa forma

  • @lucenajjj
    @lucenajjj 25 дней назад

    Professor tentei colocar o whatsapp porem não deu certo pois não retorna o chat Input e ai da erro, consegue me dar um norte para essa solução?

    • @AndrePrado
      @AndrePrado  24 дня назад +1

      sim! você precisa trocar no seu agente a opção de prompt, ao invés de pegar do último nó vc precisa definir abaixo e puxar a mensagem que chega do whatsapp

    • @lucenajjj
      @lucenajjj 24 дня назад

      @@AndrePrado ja tentei e da erro

    • @AndrePrado
      @AndrePrado  24 дня назад

      então o erro é outro, não é esse

    • @lucenajjj
      @lucenajjj 23 дня назад

      @@AndrePrado fiz funcionar professor, mas no Supabase Vector da esse erro: {
      "errorMessage": "Error searching for documents: PGRST202 Could not find the function public.match_documents(filter, match_count, query_embedding) in the schema cache Searched for the function public.match_documents with parameters filter, match_count, query_embedding or with a single unnamed json/jsonb parameter, but no matches were found in the schema cache.",
      "errorDescription": "Error searching for documents: PGRST202 Could not find the function public.match_documents(filter, match_count, query_embedding) in the schema cache Searched for the function public.match_documents with parameters filter, match_count, query_embedding or with a single unnamed json/jsonb parameter, but no matches were found in the schema cache.",
      "errorDetails": {},
      "n8nDetails": {
      "time": "25/10/2024, 11:45:42",
      "n8nVersion": "1.63.4 (Self Hosted)",
      "binaryDataMode": "default",
      "cause": {}
      }
      }

    • @lucenajjj
      @lucenajjj 23 дня назад

      @@AndrePrado arrumei o erro que estava dando do match_documents