Fala galera, estou planejando lançar um curso focado no desenvolvimento de aplicações com IA, seria um AI Engineer/Developer. O plano é cobrir Fine-tuning, RAG, vector search, agents e boas práticas. Se você tiver interesse, da uma conferida na grade e faz o cadastro pra eu te avisar quando lançar: www.techlevel.pro/
Estou assistindo este vídeo pela terceira vez, ele gerou tanta duvida, e ao mesmo tempo me gerou um caminho gigantesco de conteúdo a ser estudado que vou ter que voltar aqui mais umas 3x pra revê-lo.. rsrs parabéns
Qualidade absurda, estava querendo montar um canal assim por falta de conteúdo em PT-BR e felizmente encontrei alguém cirando nessa linha, só motivação, parabéns Daniel!
abriu minha mente, eu estava quase carregando um contexto de 3 pdf como texto kkkk em 4 perguntas eu iria ficar sem meus créditos na openai kkk obrigado
Bom dia Daniel. Muito obrigado por compartilhar esse conhecimento conosco. Tenho algumas duvidas aqui e ficaria muito grato pela sua contribuição: - É possível fazer algo parecido utilizando recursos multimodais das modelos generativos também? - E em caso de informações sigilosas, existe alguma restrição e caso exista quais alternativas de modelos temos para contornar essa situação?
Perguntas muito boas!! - Sim é possível adaptar sem problemas para multimodal; - Sobre informações sigilosas: você pode anonimizar os dados de input com serviços como: peakprivacy.ch/en/ ou projetos open source github.com/fsndzomga/anonLLM
Parabéns Daniel! Estou tentando desenvolver um projeto onde eu possa ler um PDF e extrair dele informações de acordo com premissas do meu negócio. Por exemplo: digamos que eu tenha um negócio do ramo de vendas para artigos de tintas, mas só vendo determinada marca e cores específicas. Ao ler o PDF que traz requisitos para compra de tintas, de la extraio as cores, por exemplo, e de acordo com o que vendo indico se minha empresa está ou não habilitada a fazer essa venda. Você conhece alguma implementação similar a esse contexto? Um abraço e parabéns pelo conteúdo!
Ficou mt bom o vídeo, parabéns No exemplo q eu vá usar o prompt para uma aplicação com muitas requisições durante o dia, tem alguma vantagem o contexto via RAG ao invés de escrever no próprio prompt?
Contexto via RAG é uma forma dinâmica de passar informações no prompt. Sem isso não da para fazer muita coisa apenas com informações estáticas no prompt. Se quiser compartilhar mais detalhes do que está desenvolvendo acho que consigo explicar melhor.
@@daniel_romero eu farei um avaliador de texto que será requisitado várias vezes durante o dia, já tem algumas regras definidas do que o LLM precisa avaliar, e tenho como contexto um documento em PDF, eu tenho tanta a opção de passar as informações do PDF para o prompt(escrito mesmo) ou utilizar via RAG, aí queria entender qual seria a melhor abordagem.Obrigada
@@erikamancilha7412 esse é um bom caso de uso para RAG, principalmente se o PDF for grande, ou ainda se você precisar adicionar mais informações no futuro (outros PDFs).
TOP top top!!! exatamente o que quero fazer no langflow mas não conhecia esse termo RAG. Qual LLM mais básica que não exija um hardware poderoso, para executar localmente, posso usar para responder baseado na minha Wiki da empresa?
Sim, você pode construir algo que responda questões usando a wiki da empresa como base de conhecimento. Sobre LLM local eu evito pois, configurar e manter tem uma curva muito grande. Sem falar na latência durante a geração das respostas. Mas se quiser arriscar, vai precisar de uma RTX 4090 para rodar um modelo como LLaMa 3.1 8b e ter qualidade nas respostas.
Professor,o senhor teria paciência em tirar uma duvida de um inicante aqui,estou tentando reproduzir o modelo mas meu Output=False quando executo import os from dotenv import load_dotenv from langchain_openai import ChatOpenAI load_dotenv('./.env') O que poderia ser?
Vídeo show de bola ! Você explicou os conceitos de um jeito muito claro e a parte prática foi bem legal. Parabéns pelo conteúdo top! Tô ansioso pra ver mais vídeos assim no seu canal.
pra criar um chat bot que pode fazer a ingestao de dados no qdrant antes de responder uma pergunta sobre aquele conteudo, é melhor usar RAG com langchain com function calling ou agents utilizando crewai ?
Fala galera, estou planejando lançar um curso focado no desenvolvimento de aplicações com IA, seria um AI Engineer/Developer.
O plano é cobrir Fine-tuning, RAG, vector search, agents e boas práticas.
Se você tiver interesse, da uma conferida na grade e faz o cadastro pra eu te avisar quando lançar: www.techlevel.pro/
Estou assistindo este vídeo pela terceira vez, ele gerou tanta duvida, e ao mesmo tempo me gerou um caminho gigantesco de conteúdo a ser estudado que vou ter que voltar aqui mais umas 3x pra revê-lo.. rsrs
parabéns
Qualidade absurda, estava querendo montar um canal assim por falta de conteúdo em PT-BR e felizmente encontrei alguém cirando nessa linha, só motivação, parabéns Daniel!
ótimo video!! precisamos de mais conteúdo assim em PT/BR :)
Por falar em conteúdo, estou aguardando o seu canal!!
Ótima aula, professor! Muito obrigada pela disponibilidade para repassar seu conhecimento e com tanta clareza !
Fico feliz em conseguir ajudar =)
Prezado Daniel, parabéns pelo vídeo!
Didático, objetivo e exemplo fácil de compreender.
Saúde e sucesso!
Que didática fantástica. Ótimo conteúdo. Parabéns e continue motivado.
Abs.
abriu minha mente, eu estava quase carregando um contexto de 3 pdf como texto kkkk
em 4 perguntas eu iria ficar sem meus créditos na openai kkk obrigado
Obrigado pelo conteúdo! crie mais vídeos sobre esse tema 👊
Didatica excelente, meus parabéns pelo seu trabalho
Salve salve Daniel, muito bom o conteúdo … sucesso irmão aprendi muito com você e seus vídeos …
Que vídeo incrível Daniel, em 20 minutos você explicou conteúdo de horas. 🤯
Valeu por esse feedback!
Muito bom video!! Fine-tuning seria muito interessante também! Abraços
Muito bom! Tenho interessa em conhecer mais sobre este tema.
Daniel excelente conteúdo! Parabéns!
vim pelo Akita, mto bom seus vídeos 👍
Bom dia Daniel.
Muito obrigado por compartilhar esse conhecimento conosco.
Tenho algumas duvidas aqui e ficaria muito grato pela sua contribuição:
- É possível fazer algo parecido utilizando recursos multimodais das modelos generativos também?
- E em caso de informações sigilosas, existe alguma restrição e caso exista quais alternativas de modelos temos para contornar essa situação?
Perguntas muito boas!!
- Sim é possível adaptar sem problemas para multimodal;
- Sobre informações sigilosas: você pode anonimizar os dados de input com serviços como: peakprivacy.ch/en/ ou projetos open source github.com/fsndzomga/anonLLM
Traga mais vídeos sobre Grok e RAG
Bem instrutivo man! Parabensss. Prossiga!
Valeu professor!! =)
Muito bom, parabéns!
Parabéns! Excelente!!!!!
Parabéns Daniel! Estou tentando desenvolver um projeto onde eu possa ler um PDF e extrair dele informações de acordo com premissas do meu negócio. Por exemplo: digamos que eu tenha um negócio do ramo de vendas para artigos de tintas, mas só vendo determinada marca e cores específicas. Ao ler o PDF que traz requisitos para compra de tintas, de la extraio as cores, por exemplo, e de acordo com o que vendo indico se minha empresa está ou não habilitada a fazer essa venda. Você conhece alguma implementação similar a esse contexto?
Um abraço e parabéns pelo conteúdo!
Acho que são muitas tarefas para o LLM eu nunca vi um projeto ou exemplo próximo disso.
Ficou mt bom o vídeo, parabéns
No exemplo q eu vá usar o prompt para uma aplicação com muitas requisições durante o dia, tem alguma vantagem o contexto via RAG ao invés de escrever no próprio prompt?
Contexto via RAG é uma forma dinâmica de passar informações no prompt. Sem isso não da para fazer muita coisa apenas com informações estáticas no prompt. Se quiser compartilhar mais detalhes do que está desenvolvendo acho que consigo explicar melhor.
@@daniel_romero eu farei um avaliador de texto que será requisitado várias vezes durante o dia, já tem algumas regras definidas do que o LLM precisa avaliar, e tenho como contexto um documento em PDF, eu tenho tanta a opção de passar as informações do PDF para o prompt(escrito mesmo) ou utilizar via RAG, aí queria entender qual seria a melhor abordagem.Obrigada
@@erikamancilha7412 esse é um bom caso de uso para RAG, principalmente se o PDF for grande, ou ainda se você precisar adicionar mais informações no futuro (outros PDFs).
TOP top top!!! exatamente o que quero fazer no langflow mas não conhecia esse termo RAG. Qual LLM mais básica que não exija um hardware poderoso, para executar localmente, posso usar para responder baseado na minha Wiki da empresa?
Sim, você pode construir algo que responda questões usando a wiki da empresa como base de conhecimento. Sobre LLM local eu evito pois, configurar e manter tem uma curva muito grande. Sem falar na latência durante a geração das respostas. Mas se quiser arriscar, vai precisar de uma RTX 4090 para rodar um modelo como LLaMa 3.1 8b e ter qualidade nas respostas.
Incrível!
Professor,o senhor teria paciência em tirar uma duvida de um inicante aqui,estou tentando reproduzir o modelo mas meu Output=False quando executo import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI
load_dotenv('./.env') O que poderia ser?
Opa! Você criou o arquivo .env no diretório do projeto?
@@daniel_romero Consegui ,agora vou me divertir aqui!Obrigado professor,virei seu seguidor,ótima didática!
Excelente!
Vídeo show de bola ! Você explicou os conceitos de um jeito muito claro e a parte prática foi bem legal. Parabéns pelo conteúdo top! Tô ansioso pra ver mais vídeos assim no seu canal.
pra criar um chat bot que pode fazer a ingestao de dados no qdrant antes de responder uma pergunta sobre aquele conteudo, é melhor usar RAG com langchain com function calling ou agents utilizando crewai ?
Com certeza RAG, mas tem uma outra forma com agentic RAG que ainda vou demonstrar em um vídeo ;)
O Monstro!!!
O melhor 🤘🏻
O maisss brabo! 👏🏻🐧
Professor ,isso de alguma forma paga?No caso api da openIA?
Sim, no caso da OpenAI a API deles é paga. Felizmente temos alternativas com planos free para testes e open source para rodar local como Ollama.
Show demais, os vídeos serão semanais?
Juro que vou tentar manter a consistência semanal 😄