Quer aprender a construir agentes autônomos combinando LLMs (como o DeepSeek, ChatGPT e Claude) e Python, mesmo que não tenha qualquer experiência prévia com programação? Conheça nossa trilha Aplicações IA com Python: asimov.academy/trilha-aplicacoes-ia-com-python/?
Lembrando assim como varios canais indianos estão falando, os modelos 1.5b, 7b, 14b e 32b não são realmente deepseek, apenas o de 671b foi treinado da forma diferenciada que explicam por ai.
Bem lembrado! Porém, o fato de uma simples "supervisão" do deepseek ter permitido que eles, em alguns benchmarks, se aproximem do o1-mini, é impressionante!
Se eu tivesse aberto o RUclips antes lklklkkkk. Eu comecei a usar o deepseek para aprender a baixar e modificar o deepseek (estou no meio do processo agora). Não sei muito sobre a tecnicidade da área, mas minha curiosidade bateu e eu queria saber se eu conseguiria reduzir ainda mais o consumo de memória para rodar o modelo. Sim, estou tentando destilar o modelo destilado, esse é o hardware que eu tenho agora (sem placa de vídeo, i5 10th, 20Gb de RAM e um sonho) kkkkkkkkkkk
eu baixei o deepseek distill qwen 14B e to rodando no meu notebook Asus Rgstrix 513M.. tem um ryzen 7 bom e uma RTX3060. Ta rodando a 2.65 tokens por segundo.. as respostas estão demorando a sair, mas mesmo assim ta valendo a pena usar pra aprender. Ontem eu estava usando o de 7B e estava indo a uns 4 a 7 tokens por segundo. eu nao entendo mto bem dessas especificidades todas, mas, para ser considerado usavel para a maioria das pessoas, quantos tokens por segundo seria o tolerável pra ser uma experiencia mais fluida?
Placa de Video com VRAM 8gb roda modelo 8B parâmetros ou menos, nesse caso recomenda-se 16gb de memoria ram. Um processador de entrada 6/12 dá conta. Se tiver placa de vídeo 16gb de VRAM, roda um modelo de 14B de parâmetros, nesse caso recomenda-se 32gb de memoria ram pra rodar sem gargalar o sistema operacional. Essas sao estimativas com base no conteúdo do vídeo.
Posso rodar qualquer modelo no meu computador desktop pois montei um pc com 4 teras de vram, o problema que estou tendo é no cmd do windows eu não consigo colar de uma vez por exemplo um código de 10 mil tokens me tel alguma sujestão? No lm Studio posso colar até 132 mil tokens mas no cmd com llm local não consigo
@@cleidersergiorodrigues simplesmente pq n da pra ser gratuito igual eles alegam, então eles limitam e dizem que é erro de processamento pra n falar q ta limitando
É possivel rodar o R1 na RAM ao invés de GPU. (chupa Nvidea) Tem gente mostrando setup de PC com 24 pentes de 32GB de RAM DDR5 para rodar o R1 e conseguindo 6 a 8 tokens por segundo.
Quer aprender a construir agentes autônomos combinando LLMs (como o DeepSeek, ChatGPT e Claude) e Python, mesmo que não tenha qualquer experiência prévia com programação? Conheça nossa trilha Aplicações IA com Python: asimov.academy/trilha-aplicacoes-ia-com-python/?
Não tenho nenhuma experiência com programação, mesmo assim consigo com sua formação criar algo?
@@salmodias7792consegue criar tudo.
Que decisão acertada ter adquirido o plano vitalício da ASIMOV... Conteúdo de qualidade absurda !
Você parece um bot emocionado.
@opgrow não cara, só sei reconhecer um bom conteúdo.
@@opgrow ou sou um Bot escrito em Python, nunca saberemos!
@@vitorratti2001 capaz de ser, tudo que a Asimov faz, faz bem feito kkk
Eu posso dizer o mesmo. Tem me agregado demais.
Sou aluno com orgulho da Asimov Academy e recomendo. Os caras são impecaveis e entregam mto mais do que vc pode esperar. nota 1000.
14:20 no chatgpt se voce apertar em cima de "pensamento" ele abre tambem uma aba que diz a sequencia de pensamentos dele igual o deepseek
Seria legal fazer um video usando a api do deepseek e mostrando na prática como fazer um deploy com um modelo treinado baseado nela.
Lembrando assim como varios canais indianos estão falando, os modelos 1.5b, 7b, 14b e 32b não são realmente deepseek, apenas o de 671b foi treinado da forma diferenciada que explicam por ai.
Bem lembrado! Porém, o fato de uma simples "supervisão" do deepseek ter permitido que eles, em alguns benchmarks, se aproximem do o1-mini, é impressionante!
Se eu tivesse aberto o RUclips antes lklklkkkk. Eu comecei a usar o deepseek para aprender a baixar e modificar o deepseek (estou no meio do processo agora).
Não sei muito sobre a tecnicidade da área, mas minha curiosidade bateu e eu queria saber se eu conseguiria reduzir ainda mais o consumo de memória para rodar o modelo. Sim, estou tentando destilar o modelo destilado, esse é o hardware que eu tenho agora (sem placa de vídeo, i5 10th, 20Gb de RAM e um sonho) kkkkkkkkkkk
Que vídeo fantástico… sem sombra de duvidas, o melhor canal em pt-br disparado sobre o assunto… ainda bem que tb sou aluno 🎉😊
Obrigado pelo video, com qualidade e rápido.
Torcendo pra sair uma promo no vitalício
eu baixei o deepseek distill qwen 14B e to rodando no meu notebook Asus Rgstrix 513M.. tem um ryzen 7 bom e uma RTX3060.
Ta rodando a 2.65 tokens por segundo.. as respostas estão demorando a sair, mas mesmo assim ta valendo a pena usar pra aprender.
Ontem eu estava usando o de 7B e estava indo a uns 4 a 7 tokens por segundo. eu nao entendo mto bem dessas especificidades todas, mas, para ser considerado usavel para a maioria das pessoas, quantos tokens por segundo seria o tolerável pra ser uma experiencia mais fluida?
🆙
Excelente vídeo!!!
Opa seria interessante algum projeto da asimov com modelos locais.
Esqueceram de colocar o B-roll 7:20 do servidor local =[ Ótimo vídeo!😅
QUAL TIPO DE CONFIGURAÇÃO DE MÁQUINA PRA ELE RODAR LOCAL?
Placa de Video com VRAM 8gb roda modelo 8B parâmetros ou menos, nesse caso recomenda-se 16gb de memoria ram. Um processador de entrada 6/12 dá conta. Se tiver placa de vídeo 16gb de VRAM, roda um modelo de 14B de parâmetros, nesse caso recomenda-se 32gb de memoria ram pra rodar sem gargalar o sistema operacional. Essas sao estimativas com base no conteúdo do vídeo.
A melhor coisa que aconteceu. Deepseek baixou a bola dos monopolistas
Posso rodar qualquer modelo no meu computador desktop pois montei um pc com 4 teras de vram, o problema que estou tendo é no cmd do windows eu não consigo colar de uma vez por exemplo um código de 10 mil tokens me tel alguma sujestão? No lm Studio posso colar até 132 mil tokens mas no cmd com llm local não consigo
É muito cedo pra eu baixar esses modelos, colocar em agents em produção ?
07:17 faltou uma imagem do pc
Verdade, pedimos desculpas. Como corremos para soltar esse video, acabou passando esse errinho 😅 Abraços!
@@AsimovAcademy video ta top, parabens!
Todos os modelos têm censura sobre assuntos.
O vídeo que eu estava esperando, melhor canal 🎉
A versão 1.5, se você perguntar a capital federal do Brasil ela diz que é o Rio de Janeiro.
Testei a deep hoje, nao chega nem perto do GPT, nem perto, mandei o log pequeno pra ela ler, ela nem responde, buga tudo
normal, ainda estão se aptando aos milhões de usuarios novos e tambem sofreu muitos ataques.
@@cleidersergiorodrigues simplesmente pq n da pra ser gratuito igual eles alegam, então eles limitam e dizem que é erro de processamento pra n falar q ta limitando
Primeiro 🎉
É possivel rodar o R1 na RAM ao invés de GPU. (chupa Nvidea) Tem gente mostrando setup de PC com 24 pentes de 32GB de RAM DDR5 para rodar o R1 e conseguindo 6 a 8 tokens por segundo.
150K pra rodar um modelo em casa ? a troca de que ?
Não é um benchmark, mas o DS claramente deu um pau nos outros na construção da corrida..😂
Que jogo lixo da open ai kkk