DeepSeek MASTERCLASS - O que sabemos até agora (e como rodá-lo LOCALMENTE)

Поделиться
HTML-код
  • Опубликовано: 30 янв 2025

Комментарии • 45

  • @AsimovAcademy
    @AsimovAcademy  8 часов назад +3

    Quer aprender a construir agentes autônomos combinando LLMs (como o DeepSeek, ChatGPT e Claude) e Python, mesmo que não tenha qualquer experiência prévia com programação? Conheça nossa trilha Aplicações IA com Python: asimov.academy/trilha-aplicacoes-ia-com-python/?

    • @salmodias7792
      @salmodias7792 4 часа назад

      Não tenho nenhuma experiência com programação, mesmo assim consigo com sua formação criar algo?

    • @Vincentjhare
      @Vincentjhare 3 часа назад

      ​@@salmodias7792consegue criar tudo.

  • @vitorratti2001
    @vitorratti2001 6 часов назад +11

    Que decisão acertada ter adquirido o plano vitalício da ASIMOV... Conteúdo de qualidade absurda !

    • @opgrow
      @opgrow 6 часов назад +1

      Você parece um bot emocionado.

    • @vitorratti2001
      @vitorratti2001 6 часов назад

      @opgrow não cara, só sei reconhecer um bom conteúdo.

    • @vitorratti2001
      @vitorratti2001 6 часов назад

      @@opgrow ou sou um Bot escrito em Python, nunca saberemos!

    • @visaohelenopontes
      @visaohelenopontes 5 часов назад +1

      @@vitorratti2001 capaz de ser, tudo que a Asimov faz, faz bem feito kkk

    • @marchonnf
      @marchonnf 5 часов назад

      Eu posso dizer o mesmo. Tem me agregado demais.

  • @fstech.digital
    @fstech.digital 8 часов назад +8

    Sou aluno com orgulho da Asimov Academy e recomendo. Os caras são impecaveis e entregam mto mais do que vc pode esperar. nota 1000.

  • @indiano2169
    @indiano2169 Час назад

    14:20 no chatgpt se voce apertar em cima de "pensamento" ele abre tambem uma aba que diz a sequencia de pensamentos dele igual o deepseek

  • @henriquetarginodealbuquerq2810
    @henriquetarginodealbuquerq2810 7 часов назад +2

    Seria legal fazer um video usando a api do deepseek e mostrando na prática como fazer um deploy com um modelo treinado baseado nela.

  • @Apenasmerdas
    @Apenasmerdas 4 часа назад +2

    Lembrando assim como varios canais indianos estão falando, os modelos 1.5b, 7b, 14b e 32b não são realmente deepseek, apenas o de 671b foi treinado da forma diferenciada que explicam por ai.

    • @AsimovAcademy
      @AsimovAcademy  4 часа назад +1

      Bem lembrado! Porém, o fato de uma simples "supervisão" do deepseek ter permitido que eles, em alguns benchmarks, se aproximem do o1-mini, é impressionante!

  • @vitoremanuel4292
    @vitoremanuel4292 5 часов назад +1

    Se eu tivesse aberto o RUclips antes lklklkkkk. Eu comecei a usar o deepseek para aprender a baixar e modificar o deepseek (estou no meio do processo agora).
    Não sei muito sobre a tecnicidade da área, mas minha curiosidade bateu e eu queria saber se eu conseguiria reduzir ainda mais o consumo de memória para rodar o modelo. Sim, estou tentando destilar o modelo destilado, esse é o hardware que eu tenho agora (sem placa de vídeo, i5 10th, 20Gb de RAM e um sonho) kkkkkkkkkkk

  • @ehchicomx
    @ehchicomx 8 часов назад

    Que vídeo fantástico… sem sombra de duvidas, o melhor canal em pt-br disparado sobre o assunto… ainda bem que tb sou aluno 🎉😊

  • @klebergomes-vg6kc
    @klebergomes-vg6kc 7 часов назад

    Obrigado pelo video, com qualidade e rápido.

  • @jonasmachado87
    @jonasmachado87 3 часа назад

    Torcendo pra sair uma promo no vitalício

  • @marcosbarcellos-gamedev5278
    @marcosbarcellos-gamedev5278 55 минут назад +1

    eu baixei o deepseek distill qwen 14B e to rodando no meu notebook Asus Rgstrix 513M.. tem um ryzen 7 bom e uma RTX3060.
    Ta rodando a 2.65 tokens por segundo.. as respostas estão demorando a sair, mas mesmo assim ta valendo a pena usar pra aprender.
    Ontem eu estava usando o de 7B e estava indo a uns 4 a 7 tokens por segundo. eu nao entendo mto bem dessas especificidades todas, mas, para ser considerado usavel para a maioria das pessoas, quantos tokens por segundo seria o tolerável pra ser uma experiencia mais fluida?

    • @s3f1r0t
      @s3f1r0t 22 минуты назад

      🆙

  • @mateus_mg2000
    @mateus_mg2000 6 часов назад

    Excelente vídeo!!!

  • @visaohelenopontes
    @visaohelenopontes 5 часов назад

    Opa seria interessante algum projeto da asimov com modelos locais.

  • @itsrenatoc
    @itsrenatoc 6 часов назад

    Esqueceram de colocar o B-roll 7:20 do servidor local =[ Ótimo vídeo!😅

  • @salmodias7792
    @salmodias7792 4 часа назад +1

    QUAL TIPO DE CONFIGURAÇÃO DE MÁQUINA PRA ELE RODAR LOCAL?

    • @leo5533
      @leo5533 3 часа назад

      Placa de Video com VRAM 8gb roda modelo 8B parâmetros ou menos, nesse caso recomenda-se 16gb de memoria ram. Um processador de entrada 6/12 dá conta. Se tiver placa de vídeo 16gb de VRAM, roda um modelo de 14B de parâmetros, nesse caso recomenda-se 32gb de memoria ram pra rodar sem gargalar o sistema operacional. Essas sao estimativas com base no conteúdo do vídeo.

  • @CastroReis-p7c
    @CastroReis-p7c 5 часов назад +1

    A melhor coisa que aconteceu. Deepseek baixou a bola dos monopolistas

  • @engenheiroluizh
    @engenheiroluizh 6 часов назад

    Posso rodar qualquer modelo no meu computador desktop pois montei um pc com 4 teras de vram, o problema que estou tendo é no cmd do windows eu não consigo colar de uma vez por exemplo um código de 10 mil tokens me tel alguma sujestão? No lm Studio posso colar até 132 mil tokens mas no cmd com llm local não consigo

  • @agentesaiparatodos
    @agentesaiparatodos 6 часов назад

    É muito cedo pra eu baixar esses modelos, colocar em agents em produção ?

  • @everythinglipe
    @everythinglipe 8 часов назад +2

    07:17 faltou uma imagem do pc

    • @AsimovAcademy
      @AsimovAcademy  7 часов назад +1

      Verdade, pedimos desculpas. Como corremos para soltar esse video, acabou passando esse errinho 😅 Abraços!

    • @everythinglipe
      @everythinglipe 7 часов назад

      @@AsimovAcademy video ta top, parabens!

  • @georgeprotasio
    @georgeprotasio 4 часа назад +1

    Todos os modelos têm censura sobre assuntos.

  • @rsousajr
    @rsousajr 6 часов назад

    O vídeo que eu estava esperando, melhor canal 🎉

  • @juliusprojeto
    @juliusprojeto 3 часа назад

    A versão 1.5, se você perguntar a capital federal do Brasil ela diz que é o Rio de Janeiro.

  • @davidtecnologiabr
    @davidtecnologiabr 6 часов назад +1

    Testei a deep hoje, nao chega nem perto do GPT, nem perto, mandei o log pequeno pra ela ler, ela nem responde, buga tudo

    • @cleidersergiorodrigues
      @cleidersergiorodrigues 5 часов назад

      normal, ainda estão se aptando aos milhões de usuarios novos e tambem sofreu muitos ataques.

    • @Gustavotrestento1
      @Gustavotrestento1 Час назад

      @@cleidersergiorodrigues simplesmente pq n da pra ser gratuito igual eles alegam, então eles limitam e dizem que é erro de processamento pra n falar q ta limitando

  • @wagner_lopes
    @wagner_lopes 8 часов назад

    Primeiro 🎉

  • @thiagobrain
    @thiagobrain 3 часа назад

    É possivel rodar o R1 na RAM ao invés de GPU. (chupa Nvidea) Tem gente mostrando setup de PC com 24 pentes de 32GB de RAM DDR5 para rodar o R1 e conseguindo 6 a 8 tokens por segundo.

  • @andrejaccon
    @andrejaccon 5 часов назад

    150K pra rodar um modelo em casa ? a troca de que ?

  • @anderson.carvalho
    @anderson.carvalho 6 часов назад

    Não é um benchmark, mas o DS claramente deu um pau nos outros na construção da corrida..😂

  • @Gustavo-np8cl
    @Gustavo-np8cl 5 часов назад

    Que jogo lixo da open ai kkk