DESCOMPLICANDO OLLAMA - Utilizando Modelos de IA no Docker e K8s! grátis

Поделиться
HTML-код
  • Опубликовано: 1 дек 2024

Комментарии • 127

  • @LinuxTips
    @LinuxTips  8 месяцев назад +18

    Tutorial passo a passo: www.linuxtips.io/blog/descomplicando-ollama-parte-1

    • @emanoeldionisio
      @emanoeldionisio 8 месяцев назад

      É possivel instalar em uma vps por exemplo? Não consegui até então, uso a hetzner e quando dou o comando do install.sh ele dá bad request, mas se dou o mesmo comando pelo wsl que montei no windows dá certo, o que poderia ser?

  • @danielcastilho7002
    @danielcastilho7002 8 месяцев назад +20

    O Jefferson pediu 2.000 LIKES nesse vídeo.
    Eu peço 4.000 LIKES pq esse vídeo merece.

    • @leiaute
      @leiaute 8 месяцев назад

      Aqui é Taboão da Serra, Jardim Record!

  • @Bambuchaa5
    @Bambuchaa5 8 месяцев назад +7

    Logo mais todos os criadores brasileiros falando do Ollama, mas tu é sempre o primeiro meu chefe

  • @jackpalaro
    @jackpalaro 8 месяцев назад +5

    Cara sensacional. Eu não sei nada sobre os modelos de I.A. mas o vídeo ficou claro o suficiente para um entendimento básico do funcionamento e de como fazer o deploy do 'próprio chat GPT'.

  • @viniciuspereira95
    @viniciuspereira95 8 месяцев назад +10

    PELO AMOR DE DEUS, façam mais videos desses!!!!!!!!

  • @caiopassos95
    @caiopassos95 8 месяцев назад +4

    Cara você é lendário, meus parabéns pelo vídeo !

  • @maykopetersen5741
    @maykopetersen5741 8 месяцев назад +2

    Vi agora e acabai de passar para meu time. Sensacional! Valeu demais, Jeferson!

  • @quemperguntou451
    @quemperguntou451 8 месяцев назад +3

    Conteúdo brabo como sempre!!

  • @caiovinicius7432
    @caiovinicius7432 8 месяцев назад +3

    Insano! Isso é pra elevar o nível mesmo. 🤝

  • @michaelviana3896
    @michaelviana3896 8 месяцев назад +2

    Ficou massa! Excelente para projetos internos em empresas

  • @duanyrf
    @duanyrf 8 месяцев назад +2

    Vídeo show demais! Parabéns.

  • @MateusFernandesdeMello
    @MateusFernandesdeMello 8 месяцев назад +4

    Aguardando parte 2 !!! Conteúdo incrível, vai facilitar muito o acesso a IA

  • @alissonpereira787
    @alissonpereira787 8 месяцев назад +5

    O LLM LlaVa é muito bom e inclusive ele é multimodal, você consegue pedir para ele descrever imagens e a qualidade é semelhante ao gpt 4 vision, usei esses dias para fazer um custom node no comfyui para descrever imagens de entrada usando tags e etc, ollama é execelente.

    • @fullcrum2089
      @fullcrum2089 8 месяцев назад

      na minha concepção ele alucina bastante, qual versão do llava vc usou ?

    • @alissonpereira787
      @alissonpereira787 8 месяцев назад

      @@fullcrum2089 uma versão que pra mim é boa é a llava:13b-v1.6

  • @estudecomigo_ds
    @estudecomigo_ds 8 месяцев назад +2

    Saudade dos conteúdos nesse formato... #VAII

  • @navarrodba
    @navarrodba 8 месяцев назад +2

    Eita, sensacional demais!

  • @TheLekao2009
    @TheLekao2009 8 месяцев назад +1

    cara obrigado pela sua boa vontade em explicar eu aprendi muuuuita coisa no seu canal, kubernetes docker já maratonei vários vídeos seus muito conteúdo bacana e quem ta na área sabe o quanto eh valioso, esse tutorial da IA local usando ollama ficou show de bola, infelizmente e muito pesado e o pc da xuxa fica lentasso, mas roda.

    • @LinuxTips
      @LinuxTips  8 месяцев назад

      Eu que agradeço

  •  5 месяцев назад +1

    Top demais camarada! S
    emana passada passei muito rapidamente sobre o ollama em uma das aulas na Pós de IA q estou fazendo, mais um video a ser preparado aqui para o canal! top como sempre Jeff! Abs! Cláudio Vaz.

  • @diegoms2009
    @diegoms2009 8 месяцев назад +1

    Muito da hora!!! ❤

  • @daylansteffen3871
    @daylansteffen3871 8 месяцев назад +1

    OLOCOOO AE SIM

  • @leandrogr03
    @leandrogr03 8 месяцев назад

    Vídeo muito top já estava testando coisas como Gpt4All porem gostei muito do Ollama por ter o funcionamento parecido com o Docker que já estou acostumado. Esperando o próximo vídeo rodando tudo isso com Kubernets.

  • @bhrott
    @bhrott 8 месяцев назад +1

    De longe um dos melhores vídeos que eu já vi sobre rodar llm local! Thanks brow ✌

    • @LinuxTips
      @LinuxTips  8 месяцев назад

      ❤️❤️❤️❤️❤️

  • @vitorcaetanoteixeira5805
    @vitorcaetanoteixeira5805 8 месяцев назад +1

    simplesmente sensacional

  • @andersondias3820
    @andersondias3820 7 месяцев назад

    que video maravilhoso, meu chatgpt expirou essa semana, nem vou renovar kkkkk obrigadão pelo contéudo.

  • @Subobys
    @Subobys 8 месяцев назад +1

    Show demais essa revolução da IA

  • @guilhermehenrique5900
    @guilhermehenrique5900 8 месяцев назад

    Conteúdo de qualidade!!!

  • @1endell
    @1endell 8 месяцев назад

    Jefão é brabo mesmo. Referência em novas tecnologias e ferramentas

  • @YanSergio
    @YanSergio 8 месяцев назад

    Caramba, isso aí é quente. Parabéns por trazer esse conteúdo pra gente.

  • @matheusdocarmo4150
    @matheusdocarmo4150 7 месяцев назад

    Que ferramente incrível! Muito bom o vídeo!

  • @BrunoBuenoLinux
    @BrunoBuenoLinux 8 месяцев назад +1

    Muito show, como sempre. =D

  • @Kozato-bot
    @Kozato-bot 8 месяцев назад +1

    Muito fodaa!!! parabéns

  • @dennishenrique9443
    @dennishenrique9443 8 месяцев назад +1

    MANO MUITO BRABOOO!! PARABENS DEMAIS!

  • @rodrigoa.cascao1553
    @rodrigoa.cascao1553 8 месяцев назад +1

    Sensacional!!

  • @alcibarros
    @alcibarros 8 месяцев назад +1

    Obrigada por compartilhar

  • @eduardoaraujo9988
    @eduardoaraujo9988 8 месяцев назад +1

    Conteúdo sensacional!

  • @lucianosatiro7038
    @lucianosatiro7038 8 месяцев назад +1

    Muito bom mesmo
    Excepcional

  • @jeffersongo
    @jeffersongo 8 месяцев назад +1

    Show.

  • @cirovelozo2338
    @cirovelozo2338 8 месяцев назад

    Muito brabo esse conteudo mano, VAIIIIIIII!!!!

  • @fkbs04
    @fkbs04 8 месяцев назад +1

    Muito fo.............a

  • @MaxJM74
    @MaxJM74 2 месяца назад

    😂 top esse mano.

  • @juniorsilva3473
    @juniorsilva3473 8 месяцев назад +1

    Video top!!!

  • @johncampos9081
    @johncampos9081 8 месяцев назад +1

    Aí sim eu vi vantagem

  • @cesarmod
    @cesarmod 6 месяцев назад

    Sensacional

  • @marceloguimaraes2385
    @marceloguimaraes2385 8 месяцев назад +1

    Top

  • @leonardoExclusivo
    @leonardoExclusivo 7 месяцев назад

    10/10 !

  • @matheusfelipesantos7055
    @matheusfelipesantos7055 8 месяцев назад +1

    Muito bom
    Tem como fazer ele ler arquivos locais para aprender com teus arquivos?

  • @PabloMarquesGabuga
    @PabloMarquesGabuga 8 месяцев назад

    Sensacional como sempre

    • @LinuxTips
      @LinuxTips  8 месяцев назад

      Obrigado sempre

  • @fullcrum2089
    @fullcrum2089 8 месяцев назад +1

    É importante dizer que o ollama usa os modelos no formato gguf o que diminui a precisão dos models.

  • @rodrigogodoysi
    @rodrigogodoysi 8 месяцев назад +2

    👏

  • @PauloRoberto-uy9ml
    @PauloRoberto-uy9ml 8 месяцев назад +4

    LinuxTips sempre a frente!

  •  8 месяцев назад +2

    Bora Galera, 5000 likes pra esse vídeo sensacional!!

  • @ed1000losAgulha
    @ed1000losAgulha 5 месяцев назад

    Foda demais

  • @salatielaizza
    @salatielaizza 8 месяцев назад

    Adorei

  • @tiagotele1
    @tiagotele1 8 месяцев назад

    Topzeira demais!

  • @freecodecampbr
    @freecodecampbr 8 месяцев назад +2

    Fala Jef o tutorial está errado no "ollama run llama-2" é "ollama run llama2"
    O mesmo problema no comando pra rodar o modelo o correto é "ollama run codellama".
    No mais parabéns pelo conteúdo, como sempre inovando!

  • @rodrigoa.cascao1553
    @rodrigoa.cascao1553 8 месяцев назад +1

    Só para ter uma ideia, qual é a sua máquina?

  • @MarcusAQueiroz2014
    @MarcusAQueiroz2014 8 месяцев назад

    show

  • @MatheusFidelissauro
    @MatheusFidelissauro 8 месяцев назад

    Sensacional ❤️

  • @flaviosilva5113
    @flaviosilva5113 7 месяцев назад

    Tutorial excelente!! Parabéns, mas eu gostaria de um help! Como posso liberar a GPU para agilizar o processo de resposta da IA, Tenho um processador I5 3 geração, ele está pedindo misericórdia.😥

  • @AndersonFonseca-bk6mj
    @AndersonFonseca-bk6mj 7 месяцев назад +2

    Bom dia. Ganhou um seguidor hj. Acha que roda bem na minha voa de 8gb RAM. Ubuntu 20.04. Utilizo para os meus bots.

  • @FizSozinho
    @FizSozinho 7 месяцев назад

    OLLAMA2 é top demais! Tenha algum relacionado a geração de texto pra audio?

  • @jmarciovasconcelos
    @jmarciovasconcelos 5 месяцев назад

    @LinuxTips , como sempre otima aula. Uma duvida existe uma maneira do modelo aprender e salvar o aprendizado? Hj toda ve que reseto o servidor tenho que enviar o contexto.
    Abraço, muito obrigado.

  • @jonasjfsp
    @jonasjfsp 8 месяцев назад +1

    Muito obrigado por compartilhar.. Dúvida, como que eu pego um modelo desse e "treino" ele com os dados do meu negócio? Seria : ollama+ banco vetorial + langchain?

    • @LinuxTips
      @LinuxTips  8 месяцев назад +1

      Voce tem que treina-lo com os dados que deseja. :)

  • @agiotacr3nte
    @agiotacr3nte 8 месяцев назад +1

    em comparação com o gepeto e gemini, qual seria a vantagem do ollama?

    • @LinuxTips
      @LinuxTips  8 месяцев назад

      Ele é o cara pra rodar esses dois. Nao tem como comparar, pois ele é o executador dos modelos como o gemini

  • @clebsontorres
    @clebsontorres 8 месяцев назад

    brabo!

  • @youngnabis
    @youngnabis 7 месяцев назад

    Tem namorada gatinho?? Me apaixonei 😍😍
    Piada manooo kkkkkkkkkk gostei muito do vídeo obrigado

  • @thiagodavoglio8743
    @thiagodavoglio8743 7 месяцев назад +1

    caraca. incrivel, so conteudo top aqui no canal, uma duvida, o ollama e gratuito pra uso comercial?

  • @rsbatalha
    @rsbatalha 8 месяцев назад +3

    Comenta o Hardware por favor. processador, memória e GPU usada.

    • @LinuxTips
      @LinuxTips  8 месяцев назад +3

      A minha maquina tem 64gb de ram e um processador com 32 nucleos da Ryzen. :)
      Mas durante os testes nao passou de 20gb de ram e nem metade do consumo de hw. Ahhh e tenho uma nvidia de uns 5 anos atras

  • @fcosantos
    @fcosantos 8 месяцев назад +1

    Sera que é possivel um modelo que tenha a geração de imagens e ou audio, para facilitar a utilização em coisas mais amplas

  • @edcarlosmelo818
    @edcarlosmelo818 8 месяцев назад +1

    não vejo a hora de sair a versão docker, quero pegar um pc que está parado aqui e montar um servidor desse, só uma dúvida. ais informações da IA fica atualizadas ele busca na internet ou é feito o chat gpt que é informações até uma data?

    • @LinuxTips
      @LinuxTips  8 месяцев назад +1

      já tem video novo! :D

  • @MrGustavodarker
    @MrGustavodarker 8 месяцев назад

    Excelente, sabe dizer se ele possui API como o GPT e o Gemini?

  • @velhobarreiratenebrica
    @velhobarreiratenebrica 5 месяцев назад +1

    Ollama ele é a mesma coisa que o LMStudio? a unica diferença é que o LMStudio fornece a interface bonitinha igual o chatgpt, já o OLLAMA oferece apenas a interface de prompt?

    • @LinuxTips
      @LinuxTips  5 месяцев назад +1

      Ele te da um prompt, api e a possibilidade de conectar uma interface como o chatgpt. Ele é o docker dos modelos de IA

  • @BrMacs
    @BrMacs 8 месяцев назад +1

    Fala LinuxTips!
    Qual o tamanho do prompt que eles aceitam?
    Curto como o Copilot ou grande como GPT 4.0?

    • @LinuxTips
      @LinuxTips  8 месяцев назад +1

      Longos! Vc consegue definir! :)

  • @viniciusfs
    @viniciusfs 8 месяцев назад +2

    Chamou na cervejinha e lembrei que a minha esta no congelador!

  • @robsonjunqueiradarosa3063
    @robsonjunqueiradarosa3063 8 месяцев назад

    Grande vídeo. Uma dúvida: posso dizer que Ollama LangChain são concorrentes?

    • @LinuxTips
      @LinuxTips  8 месяцев назад +1

      Acho que se completam, de certa forma.

    • @fullcrum2089
      @fullcrum2089 8 месяцев назад

      langchain é um framework para criar agentes e integrar llms com apis, dessa forma a llm é capaz de interagir com essas apis, fazendo buscas ou salvando informações, o ollama é um projeto que lhe permite fazer inferencia das llms, que seria rodar eles, inclusive o ollama sobe uma API no formato da api da openai, o que lhe permite integrar em seus projetos, usando o langchain por exemplo.

  • @paczilla4213
    @paczilla4213 7 месяцев назад

    como eu instalo a interface dele sem o docker diretamente na vm? e seria possivel acessa-lo de outro host?

  • @fullcrum2089
    @fullcrum2089 8 месяцев назад +1

    O criador do ollama trabalhou previamente no docker.

    • @LinuxTips
      @LinuxTips  8 месяцев назад +1

      eu to ligado! :)
      Achei sensacional demais!

  • @analphabytes
    @analphabytes 8 месяцев назад

    INfelizmente para mim a parte da imagem roda tranquilo mas da imagem da openwebui não roda, tinha outras portas usadas e rodei e deu alguma bosta, mesmo apagando o container, as imagens e discos, e rodando com outras portas não roda. e internamente o .sh percebe-se que ele chama pela 8080.

  • @SamuelVeiga-o7n
    @SamuelVeiga-o7n 8 месяцев назад

    Meu computador e um i5 12400f e uma gpu 970. So que eu nao sei se o processamento esta ocorrendo na GPU ou CPU. Ou se meu computador e fraco para isto. As respostas estao bem lentas

    • @thefirstman9595
      @thefirstman9595 8 месяцев назад +1

      Para rodar de maneira satisfatória você precisa de uma GPU dedicada para realizar aceleração gráfica, o mínimo era 6gb de vram e o recomendado era 12 de vram na gpu, se eu não estiver enganado.

  • @danrleybrasil
    @danrleybrasil 4 месяца назад +1

    Legal meu caro! Mas estou com um grande problema! Ninguém fala em nenhum tutorial sobre rodar com GPU. Consegui rodar tudo mas ele só puxa o meu processador!

    • @viniciusdebruin5577
      @viniciusdebruin5577 3 месяца назад

      Os drivers da GPU estão instalados? É docker? Pc local?

    • @danrleybrasil
      @danrleybrasil 3 месяца назад

      @@viniciusdebruin5577 Drivers instalados, inclusive o driver cuda toolkit

  • @wellingtonborgmann8299
    @wellingtonborgmann8299 6 месяцев назад

    Infelizmente não consegui fazer trocar no meu not, se alguém souber de algo mais leve...

  • @henrique-marti
    @henrique-marti 8 месяцев назад +1

    Seu não tiver gpu como fica? Pq eu tenho um Xeon de 28 núcleos com 128gb de ram onde rodo Proxmox, subo meus serviços em containers do Proxmox, mas esses caras não têm gpu

    • @LinuxTips
      @LinuxTips  8 месяцев назад +1

      bora testar!

    • @henrique-marti
      @henrique-marti 8 месяцев назад

      @@LinuxTips rapaz, funcionou! Subi um contêiner Proxmox com 16 CPU e 16GB de RAM, dentro dele subi um container docker com o Ollama e outro com o WebUI.
      A velocidade ficou ok e pela WebUI eu vi que tem várias opções interessantes, como subir documentos, criar seus próprios assistentes, resposta por voz do assistente e falar por voz no chat.
      Será que dá pra integrar via api, tipo o que fazemos com o GPT da open ai?!

    • @axcelkuhn6400
      @axcelkuhn6400 7 месяцев назад

      @@henrique-marti ele ficou em uma velocidade parecida com o gpt?

  • @willian-rattis
    @willian-rattis 5 месяцев назад +1

    Chama de Eliana que ta tudo certo e fica mais fácil 😂

  • @andremoriya85
    @andremoriya85 8 месяцев назад +1

    rapá, me fala a config desse "servidor" ai que vc tá usando? hgauhauhau

  • @vionor0x
    @vionor0x 8 месяцев назад

    Eu tento rodar no wsl2 usando arch linux mas ele simplesmente não detecta minha GPU, ele leva um século pra responder, parece que desenvolveram uma versão para rodar em CPU, vou testar em breve kkk

    • @fullcrum2089
      @fullcrum2089 8 месяцев назад

      Até onde sei o ollama agora tem suporte para o windows.

  • @FAELP22
    @FAELP22 8 месяцев назад +1

    Qual é a sua CPU e sua Placa de vídeo? A minha aqui leva uns 30s para responder uma palavra 😢😅😅

    • @LinuxTips
      @LinuxTips  8 месяцев назад +1

      ve o outro video para rodar no kubernetes, acho que vai rodar mais fino. :)

  • @mychelldias
    @mychelldias 8 месяцев назад +2

    Caralho que doideira, a mao que treme chega a tremer...

  • @sergiorsiqueira
    @sergiorsiqueira 3 месяца назад

    Que maquiina é essa irmão?!

  • @hedro_eth
    @hedro_eth 8 месяцев назад +1

    tadinho do meu m1 travou todo kkkkk

  • @FranzKurtdeRamosGastring
    @FranzKurtdeRamosGastring 8 месяцев назад +1

    Assistindo em 4x

  • @garagemdocodigo
    @garagemdocodigo 4 месяца назад

    O meu parou de falar em português e não volta de jeito nenhum

  • @condorhackfut
    @condorhackfut 8 месяцев назад

  • @RodrigoGomesdaSilva2
    @RodrigoGomesdaSilva2 8 месяцев назад

    Não tem como assistir esse cara por mais de 2 segundos

    • @LinuxTips
      @LinuxTips  8 месяцев назад +4

      Não tem como mesmo não. :)
      Tem pessoas que não conseguem acompanhar mesmo, mas pra eles tem outros vídeos em outros canais que não precisa pensar. É beeeem mais fácil, vc consegue!

    • @fullcrum2089
      @fullcrum2089 8 месяцев назад

      @@LinuxTips tem gente que tem alergia a pessoas felizes hahaha