DESCOMPLICANDO OLLAMA - Utilizando Modelos de IA no Docker e K8s! grátis

Поделиться
HTML-код
  • Опубликовано: 2 фев 2025

Комментарии • 132

  • @LinuxTips
    @LinuxTips  10 месяцев назад +19

    Tutorial passo a passo: www.linuxtips.io/blog/descomplicando-ollama-parte-1

    • @emanoeldionisio
      @emanoeldionisio 10 месяцев назад

      É possivel instalar em uma vps por exemplo? Não consegui até então, uso a hetzner e quando dou o comando do install.sh ele dá bad request, mas se dou o mesmo comando pelo wsl que montei no windows dá certo, o que poderia ser?

  • @MrHugomiguelcandeias
    @MrHugomiguelcandeias День назад +1

    ficou 5 estrelas a explanação! clara simples e transparante!

  • @danielcastilho7002
    @danielcastilho7002 10 месяцев назад +22

    O Jefferson pediu 2.000 LIKES nesse vídeo.
    Eu peço 4.000 LIKES pq esse vídeo merece.

    • @leiaute
      @leiaute 10 месяцев назад

      Aqui é Taboão da Serra, Jardim Record!

  • @luccianosantana
    @luccianosantana 2 дня назад

    Muito bom, agora vai dar um boom! No uso de IA.

  • @Bambuchaa5
    @Bambuchaa5 10 месяцев назад +7

    Logo mais todos os criadores brasileiros falando do Ollama, mas tu é sempre o primeiro meu chefe

  • @jackpalaro
    @jackpalaro 10 месяцев назад +5

    Cara sensacional. Eu não sei nada sobre os modelos de I.A. mas o vídeo ficou claro o suficiente para um entendimento básico do funcionamento e de como fazer o deploy do 'próprio chat GPT'.

  • @maykopetersen5741
    @maykopetersen5741 10 месяцев назад +2

    Vi agora e acabai de passar para meu time. Sensacional! Valeu demais, Jeferson!

    • @LinuxTips
      @LinuxTips  10 месяцев назад +1

      Sensacional

  • @michaelviana3896
    @michaelviana3896 10 месяцев назад +2

    Ficou massa! Excelente para projetos internos em empresas

  • @caiovinicius7432
    @caiovinicius7432 10 месяцев назад +3

    Insano! Isso é pra elevar o nível mesmo. 🤝

  • @caiopassos95
    @caiopassos95 10 месяцев назад +4

    Cara você é lendário, meus parabéns pelo vídeo !

  • @quemperguntou451
    @quemperguntou451 10 месяцев назад +3

    Conteúdo brabo como sempre!!

  • @estudecomigo_ds
    @estudecomigo_ds 10 месяцев назад +2

    Saudade dos conteúdos nesse formato... #VAII

  • @duanyrf
    @duanyrf 10 месяцев назад +2

    Vídeo show demais! Parabéns.

  • @navarrodba
    @navarrodba 10 месяцев назад +2

    Eita, sensacional demais!

  • @wozniak-E
    @wozniak-E 10 месяцев назад +10

    PELO AMOR DE DEUS, façam mais videos desses!!!!!!!!

  • @TheLekao2009
    @TheLekao2009 10 месяцев назад +1

    cara obrigado pela sua boa vontade em explicar eu aprendi muuuuita coisa no seu canal, kubernetes docker já maratonei vários vídeos seus muito conteúdo bacana e quem ta na área sabe o quanto eh valioso, esse tutorial da IA local usando ollama ficou show de bola, infelizmente e muito pesado e o pc da xuxa fica lentasso, mas roda.

    • @LinuxTips
      @LinuxTips  10 месяцев назад

      Eu que agradeço

  • @MateusFernandesdeMello
    @MateusFernandesdeMello 10 месяцев назад +5

    Aguardando parte 2 !!! Conteúdo incrível, vai facilitar muito o acesso a IA

  • @bhrott
    @bhrott 10 месяцев назад +1

    De longe um dos melhores vídeos que eu já vi sobre rodar llm local! Thanks brow ✌

    • @LinuxTips
      @LinuxTips  10 месяцев назад

      ❤️❤️❤️❤️❤️

  • @alissonpereira787
    @alissonpereira787 10 месяцев назад +7

    O LLM LlaVa é muito bom e inclusive ele é multimodal, você consegue pedir para ele descrever imagens e a qualidade é semelhante ao gpt 4 vision, usei esses dias para fazer um custom node no comfyui para descrever imagens de entrada usando tags e etc, ollama é execelente.

    • @fullcrum2089
      @fullcrum2089 10 месяцев назад

      na minha concepção ele alucina bastante, qual versão do llava vc usou ?

    • @alissonpereira787
      @alissonpereira787 10 месяцев назад

      @@fullcrum2089 uma versão que pra mim é boa é a llava:13b-v1.6

  •  7 месяцев назад +1

    Top demais camarada! S
    emana passada passei muito rapidamente sobre o ollama em uma das aulas na Pós de IA q estou fazendo, mais um video a ser preparado aqui para o canal! top como sempre Jeff! Abs! Cláudio Vaz.

  • @matheusdocarmo4150
    @matheusdocarmo4150 9 месяцев назад

    Que ferramente incrível! Muito bom o vídeo!

  • @vitorcaetanoteixeira5805
    @vitorcaetanoteixeira5805 10 месяцев назад +1

    simplesmente sensacional

  • @andersondias3820
    @andersondias3820 9 месяцев назад

    que video maravilhoso, meu chatgpt expirou essa semana, nem vou renovar kkkkk obrigadão pelo contéudo.

  • @diegoms2009
    @diegoms2009 10 месяцев назад +1

    Muito da hora!!! ❤

  • @Subobys
    @Subobys 10 месяцев назад +1

    Show demais essa revolução da IA

  • @leandrogr03
    @leandrogr03 10 месяцев назад

    Vídeo muito top já estava testando coisas como Gpt4All porem gostei muito do Ollama por ter o funcionamento parecido com o Docker que já estou acostumado. Esperando o próximo vídeo rodando tudo isso com Kubernets.

  • @YanSergio
    @YanSergio 10 месяцев назад

    Caramba, isso aí é quente. Parabéns por trazer esse conteúdo pra gente.

  • @1endell
    @1endell 10 месяцев назад

    Jefão é brabo mesmo. Referência em novas tecnologias e ferramentas

  • @eduardoaraujo9988
    @eduardoaraujo9988 10 месяцев назад +1

    Conteúdo sensacional!

  • @alcibarros
    @alcibarros 10 месяцев назад +1

    Obrigada por compartilhar

  • @guilhermehenrique5900
    @guilhermehenrique5900 10 месяцев назад

    Conteúdo de qualidade!!!

  • @dennishenrique9443
    @dennishenrique9443 10 месяцев назад +1

    MANO MUITO BRABOOO!! PARABENS DEMAIS!

  • @freecodecampbr
    @freecodecampbr 10 месяцев назад +2

    Fala Jef o tutorial está errado no "ollama run llama-2" é "ollama run llama2"
    O mesmo problema no comando pra rodar o modelo o correto é "ollama run codellama".
    No mais parabéns pelo conteúdo, como sempre inovando!

  • @BrunoBuenoLinux
    @BrunoBuenoLinux 10 месяцев назад +1

    Muito show, como sempre. =D

  • @Kozato-bot
    @Kozato-bot 10 месяцев назад +1

    Muito fodaa!!! parabéns

  • @rodrigoa.cascao1553
    @rodrigoa.cascao1553 10 месяцев назад +1

    Sensacional!!

  • @cirovelozo2338
    @cirovelozo2338 10 месяцев назад

    Muito brabo esse conteudo mano, VAIIIIIIII!!!!

  • @PauloRoberto-uy9ml
    @PauloRoberto-uy9ml 10 месяцев назад +4

    LinuxTips sempre a frente!

  • @PabloMarquesGabuga
    @PabloMarquesGabuga 10 месяцев назад

    Sensacional como sempre

    • @LinuxTips
      @LinuxTips  10 месяцев назад

      Obrigado sempre

  • @MaxJM74
    @MaxJM74 4 месяца назад

    😂 top esse mano.

  • @lucianosatiro7038
    @lucianosatiro7038 10 месяцев назад +1

    Muito bom mesmo
    Excepcional

  • @jeffersongo
    @jeffersongo 10 месяцев назад +1

    Show.

  • @daylansteffen3871
    @daylansteffen3871 10 месяцев назад +1

    OLOCOOO AE SIM

  • @cesarmod
    @cesarmod 9 месяцев назад

    Sensacional

  • @fkbs04
    @fkbs04 10 месяцев назад +1

    Muito fo.............a

  • @fullcrum2089
    @fullcrum2089 10 месяцев назад +1

    É importante dizer que o ollama usa os modelos no formato gguf o que diminui a precisão dos models.

  • @juniorsilva3473
    @juniorsilva3473 10 месяцев назад +1

    Video top!!!

  • @matheusfelipesantos7055
    @matheusfelipesantos7055 10 месяцев назад +1

    Muito bom
    Tem como fazer ele ler arquivos locais para aprender com teus arquivos?

  • @MatheusFidelissauro
    @MatheusFidelissauro 10 месяцев назад

    Sensacional ❤️

  • @salatielaizza
    @salatielaizza 10 месяцев назад

    Adorei

  • @tiagotele1
    @tiagotele1 10 месяцев назад

    Topzeira demais!

  •  10 месяцев назад +2

    Bora Galera, 5000 likes pra esse vídeo sensacional!!

  • @jonasjfsp
    @jonasjfsp 10 месяцев назад +1

    Muito obrigado por compartilhar.. Dúvida, como que eu pego um modelo desse e "treino" ele com os dados do meu negócio? Seria : ollama+ banco vetorial + langchain?

    • @LinuxTips
      @LinuxTips  10 месяцев назад +1

      Voce tem que treina-lo com os dados que deseja. :)

  • @thiagodavoglio8743
    @thiagodavoglio8743 9 месяцев назад +1

    caraca. incrivel, so conteudo top aqui no canal, uma duvida, o ollama e gratuito pra uso comercial?

  • @rodrigogodoysi
    @rodrigogodoysi 10 месяцев назад +2

    👏

  • @marceloguimaraes2385
    @marceloguimaraes2385 10 месяцев назад +1

    Top

  • @johncampos9081
    @johncampos9081 10 месяцев назад +1

    Aí sim eu vi vantagem

  • @ed1000losAgulha
    @ed1000losAgulha 7 месяцев назад

    Foda demais

  • @agiotacr3nte
    @agiotacr3nte 10 месяцев назад +1

    em comparação com o gepeto e gemini, qual seria a vantagem do ollama?

    • @LinuxTips
      @LinuxTips  10 месяцев назад

      Ele é o cara pra rodar esses dois. Nao tem como comparar, pois ele é o executador dos modelos como o gemini

  • @flaviosilva5113
    @flaviosilva5113 9 месяцев назад

    Tutorial excelente!! Parabéns, mas eu gostaria de um help! Como posso liberar a GPU para agilizar o processo de resposta da IA, Tenho um processador I5 3 geração, ele está pedindo misericórdia.😥

  • @MarcusAQueiroz2014
    @MarcusAQueiroz2014 10 месяцев назад

    show

  • @rsbatalha
    @rsbatalha 10 месяцев назад +3

    Comenta o Hardware por favor. processador, memória e GPU usada.

    • @LinuxTips
      @LinuxTips  10 месяцев назад +3

      A minha maquina tem 64gb de ram e um processador com 32 nucleos da Ryzen. :)
      Mas durante os testes nao passou de 20gb de ram e nem metade do consumo de hw. Ahhh e tenho uma nvidia de uns 5 anos atras

  • @rodrigoa.cascao1553
    @rodrigoa.cascao1553 10 месяцев назад +1

    Só para ter uma ideia, qual é a sua máquina?

  • @clebsontorres
    @clebsontorres 10 месяцев назад

    brabo!

  • @tonyalkmin
    @tonyalkmin 2 дня назад

    Sera que se instalar essa IA numa maquina local, eu consigo fazer requisições HTTP para ela visando utilizar ela através de um serviço ou interface própria, sem dependência da IA remota ?

  • @velhobarreiratenebrica
    @velhobarreiratenebrica 7 месяцев назад +1

    Ollama ele é a mesma coisa que o LMStudio? a unica diferença é que o LMStudio fornece a interface bonitinha igual o chatgpt, já o OLLAMA oferece apenas a interface de prompt?

    • @LinuxTips
      @LinuxTips  7 месяцев назад +1

      Ele te da um prompt, api e a possibilidade de conectar uma interface como o chatgpt. Ele é o docker dos modelos de IA

  • @fcosantos
    @fcosantos 10 месяцев назад +1

    Sera que é possivel um modelo que tenha a geração de imagens e ou audio, para facilitar a utilização em coisas mais amplas

  • @leonardoExclusivo
    @leonardoExclusivo 10 месяцев назад

    10/10 !

  • @edcarlosmelo818
    @edcarlosmelo818 10 месяцев назад +1

    não vejo a hora de sair a versão docker, quero pegar um pc que está parado aqui e montar um servidor desse, só uma dúvida. ais informações da IA fica atualizadas ele busca na internet ou é feito o chat gpt que é informações até uma data?

    • @LinuxTips
      @LinuxTips  10 месяцев назад +1

      já tem video novo! :D

  • @MrGustavodarker
    @MrGustavodarker 10 месяцев назад

    Excelente, sabe dizer se ele possui API como o GPT e o Gemini?

  • @FizSozinho
    @FizSozinho 9 месяцев назад

    OLLAMA2 é top demais! Tenha algum relacionado a geração de texto pra audio?

  • @jmarciovasconcelos
    @jmarciovasconcelos 7 месяцев назад

    @LinuxTips , como sempre otima aula. Uma duvida existe uma maneira do modelo aprender e salvar o aprendizado? Hj toda ve que reseto o servidor tenho que enviar o contexto.
    Abraço, muito obrigado.

  • @paczilla4213
    @paczilla4213 9 месяцев назад

    como eu instalo a interface dele sem o docker diretamente na vm? e seria possivel acessa-lo de outro host?

  • @robsonjunqueiradarosa3063
    @robsonjunqueiradarosa3063 10 месяцев назад

    Grande vídeo. Uma dúvida: posso dizer que Ollama LangChain são concorrentes?

    • @LinuxTips
      @LinuxTips  10 месяцев назад +1

      Acho que se completam, de certa forma.

    • @fullcrum2089
      @fullcrum2089 10 месяцев назад

      langchain é um framework para criar agentes e integrar llms com apis, dessa forma a llm é capaz de interagir com essas apis, fazendo buscas ou salvando informações, o ollama é um projeto que lhe permite fazer inferencia das llms, que seria rodar eles, inclusive o ollama sobe uma API no formato da api da openai, o que lhe permite integrar em seus projetos, usando o langchain por exemplo.

  • @youngnabis
    @youngnabis 9 месяцев назад

    Tem namorada gatinho?? Me apaixonei 😍😍
    Piada manooo kkkkkkkkkk gostei muito do vídeo obrigado

  • @BrMacs
    @BrMacs 10 месяцев назад +1

    Fala LinuxTips!
    Qual o tamanho do prompt que eles aceitam?
    Curto como o Copilot ou grande como GPT 4.0?

    • @LinuxTips
      @LinuxTips  10 месяцев назад +1

      Longos! Vc consegue definir! :)

  • @viniciusfs
    @viniciusfs 10 месяцев назад +2

    Chamou na cervejinha e lembrei que a minha esta no congelador!

  • @danrleybrasil
    @danrleybrasil 6 месяцев назад +1

    Legal meu caro! Mas estou com um grande problema! Ninguém fala em nenhum tutorial sobre rodar com GPU. Consegui rodar tudo mas ele só puxa o meu processador!

    • @viniciusdebruin5577
      @viniciusdebruin5577 5 месяцев назад

      Os drivers da GPU estão instalados? É docker? Pc local?

    • @danrleybrasil
      @danrleybrasil 5 месяцев назад

      @@viniciusdebruin5577 Drivers instalados, inclusive o driver cuda toolkit

  • @yankizera
    @yankizera 11 дней назад

    Como atualiza o model sem perder o histórico do chat? É possível enviar pdfs para "treinar a IA"?

  • @AndersonFonseca-bk6mj
    @AndersonFonseca-bk6mj 9 месяцев назад +2

    Bom dia. Ganhou um seguidor hj. Acha que roda bem na minha voa de 8gb RAM. Ubuntu 20.04. Utilizo para os meus bots.

  • @FranciscoDF_MagexLirico
    @FranciscoDF_MagexLirico 3 дня назад

    como ficaria em python? queria rodar no google colab

  • @analphabytes
    @analphabytes 10 месяцев назад

    INfelizmente para mim a parte da imagem roda tranquilo mas da imagem da openwebui não roda, tinha outras portas usadas e rodei e deu alguma bosta, mesmo apagando o container, as imagens e discos, e rodando com outras portas não roda. e internamente o .sh percebe-se que ele chama pela 8080.

  • @fullcrum2089
    @fullcrum2089 10 месяцев назад +1

    O criador do ollama trabalhou previamente no docker.

    • @LinuxTips
      @LinuxTips  10 месяцев назад +1

      eu to ligado! :)
      Achei sensacional demais!

  • @henrique-marti
    @henrique-marti 10 месяцев назад +1

    Seu não tiver gpu como fica? Pq eu tenho um Xeon de 28 núcleos com 128gb de ram onde rodo Proxmox, subo meus serviços em containers do Proxmox, mas esses caras não têm gpu

    • @LinuxTips
      @LinuxTips  10 месяцев назад +1

      bora testar!

    • @henrique-marti
      @henrique-marti 10 месяцев назад

      @@LinuxTips rapaz, funcionou! Subi um contêiner Proxmox com 16 CPU e 16GB de RAM, dentro dele subi um container docker com o Ollama e outro com o WebUI.
      A velocidade ficou ok e pela WebUI eu vi que tem várias opções interessantes, como subir documentos, criar seus próprios assistentes, resposta por voz do assistente e falar por voz no chat.
      Será que dá pra integrar via api, tipo o que fazemos com o GPT da open ai?!

    • @axcelkuhn6400
      @axcelkuhn6400 9 месяцев назад

      @@henrique-marti ele ficou em uma velocidade parecida com o gpt?

  • @SamuelVeiga-o7n
    @SamuelVeiga-o7n 10 месяцев назад

    Meu computador e um i5 12400f e uma gpu 970. So que eu nao sei se o processamento esta ocorrendo na GPU ou CPU. Ou se meu computador e fraco para isto. As respostas estao bem lentas

    • @thefirstman9595
      @thefirstman9595 10 месяцев назад +1

      Para rodar de maneira satisfatória você precisa de uma GPU dedicada para realizar aceleração gráfica, o mínimo era 6gb de vram e o recomendado era 12 de vram na gpu, se eu não estiver enganado.

  • @FAELP22
    @FAELP22 10 месяцев назад +1

    Qual é a sua CPU e sua Placa de vídeo? A minha aqui leva uns 30s para responder uma palavra 😢😅😅

    • @LinuxTips
      @LinuxTips  10 месяцев назад +1

      ve o outro video para rodar no kubernetes, acho que vai rodar mais fino. :)

  • @vionor0x
    @vionor0x 10 месяцев назад

    Eu tento rodar no wsl2 usando arch linux mas ele simplesmente não detecta minha GPU, ele leva um século pra responder, parece que desenvolveram uma versão para rodar em CPU, vou testar em breve kkk

    • @fullcrum2089
      @fullcrum2089 10 месяцев назад

      Até onde sei o ollama agora tem suporte para o windows.

  • @wellingtonborgmann8299
    @wellingtonborgmann8299 9 месяцев назад

    Infelizmente não consegui fazer trocar no meu not, se alguém souber de algo mais leve...

  • @sergiorsiqueira
    @sergiorsiqueira 5 месяцев назад

    Que maquiina é essa irmão?!

  • @willian-rattis
    @willian-rattis 8 месяцев назад +1

    Chama de Eliana que ta tudo certo e fica mais fácil 😂

  • @andremoriya85
    @andremoriya85 10 месяцев назад +1

    rapá, me fala a config desse "servidor" ai que vc tá usando? hgauhauhau

  • @hedro_eth
    @hedro_eth 10 месяцев назад +1

    tadinho do meu m1 travou todo kkkkk

  • @mychelldias
    @mychelldias 10 месяцев назад +2

    Caralho que doideira, a mao que treme chega a tremer...

  • @garagemdocodigo
    @garagemdocodigo 6 месяцев назад

    O meu parou de falar em português e não volta de jeito nenhum

  • @condorhackfut
    @condorhackfut 10 месяцев назад

  • @FranzKurtdeRamosGastring
    @FranzKurtdeRamosGastring 10 месяцев назад +1

    Assistindo em 4x

  • @RodrigoGomesdaSilva2
    @RodrigoGomesdaSilva2 10 месяцев назад

    Não tem como assistir esse cara por mais de 2 segundos

    • @LinuxTips
      @LinuxTips  10 месяцев назад +4

      Não tem como mesmo não. :)
      Tem pessoas que não conseguem acompanhar mesmo, mas pra eles tem outros vídeos em outros canais que não precisa pensar. É beeeem mais fácil, vc consegue!

    • @fullcrum2089
      @fullcrum2089 10 месяцев назад

      @@LinuxTips tem gente que tem alergia a pessoas felizes hahaha