IA Generativa no seu Computador, sem internet e DE GRAÇA!

Поделиться
HTML-код
  • Опубликовано: 24 ноя 2024

Комментарии • 333

  • @klebersonromero9819
    @klebersonromero9819 5 месяцев назад +136

    Um dos prompts que eu utilizo é,
    "Refatore utilizando conceitos como SOLID, Clean Code, DRY, KISS e caso seja possível aplique um ou mais designer patterns adequados visando escalabilidade e performance, criando uma estrutura de pastas organizadas e separando por arquivos".
    Show demais o conteúdo!

    • @ernestorubens890
      @ernestorubens890 5 месяцев назад

      tks

    • @hailykz6772
      @hailykz6772 5 месяцев назад

      Você usa qual modelo?Estou usando o deepseek-coder de 6.7B Parâmetros.

    • @klebersonromero9819
      @klebersonromero9819 5 месяцев назад

      @@hailykz6772 eu uso o 4o mesmo ou o lhama de 7b

    • @svorckelable
      @svorckelable 5 месяцев назад

      Mais já vai tão cedo kkk

    • @tainancamargo4165
      @tainancamargo4165 2 месяца назад

      Irmão, EU DEFINITIVAMENTE TE AMO, ESSE PROMPT ESTÁ MUDANDO MEU DIA A DIA, obrigado manito, Tudo de bom pra ti e muuuuuuuito café

  • @RodrigoVieiradaCosta
    @RodrigoVieiradaCosta 5 месяцев назад +38

    conteúdo enriquecedor!!! Casal + bem codificado da matrix rsrsrs! vocês são D+!!

  • @aleksander-palamar
    @aleksander-palamar 5 месяцев назад +16

    excelente conteúdo, já utilizo o ollama localmente e ainda uso o Open WebUI como frontend.

  • @fabiomoura-xc5hl
    @fabiomoura-xc5hl 5 месяцев назад +42

    O Llama3 não rodou legal em um Notebook Acer com um i5 de 10th gen, 8gb de RAM DDR4, SSD NVMe e sem GPU dedicada. Também instalei no wsl2. Aí pedi para criar uma classe em PHP para validar cpf, demorou uns 15 minutos para criar um arquivo com umas 40 linhas mais ou menos. Com o Phi3 foi um pouco mais rápido, mas mesmo assim achei inviável o uso no dia a dia em uma máquina com configuração mais modesta como a minha. Enfim, só compartilhando minha experiência aqui com os colegas.

    • @araujoinformatica2024
      @araujoinformatica2024 5 месяцев назад +1

      cara se no seu nao deu certo imagina na minha maquina i3 de terceira geracao kkkkk

    • @impirotec5786
      @impirotec5786 5 месяцев назад

      onde que baixa o programa?

    • @juliusprojeto
      @juliusprojeto 5 месяцев назад +1

      Não roda mesmo, eu tenho um core i7 com 16GB e o Llama3 fica muito ruim. Diz a lenda que nos Macbooks vai bem, mas, custa 100 anos de chatGPT rss

    • @impirotec5786
      @impirotec5786 5 месяцев назад

      esperimente o mistral ou o phic3. Eles são várias vezes mais rápidos.

    • @impirotec5786
      @impirotec5786 5 месяцев назад

      @@juliusprojeto verdade. Eles são muito caros.

  • @AdaZoul
    @AdaZoul 5 месяцев назад +15

    Eu recomendo usarem o LM Studio com o Lhama 3 (ou Mistral etc). Dá inclusive para conversar em PT-BR e com Markdown. Ah! Não precisa configurar porta, nem nada. Local com muito mais conforto visual e praticidade. ;)

    • @LupinoHL
      @LupinoHL Месяц назад +1

      Eu instalei e achei muito lento. Existe algum hardware que melhore as respostas?

  • @julianacarvalho5483
    @julianacarvalho5483 5 месяцев назад +3

    MDS! Eu amei! Apliquei aqui, estou começando a aprender Python e vai ajudar demais! Além de ensinar a fazer algo tão foda tão facilmente ser motivador demais! Parabéns pelo trabalho!

  • @Ricardo-fg1bc
    @Ricardo-fg1bc 5 месяцев назад +4

    Uma coisa que sinto muita falta é aplicação destes modelos nas KBs internas da empresa. Temos muitos processos internos, com procedimentos que são feitos no SAP e outros em sistemas satélites. Treinar é sempre um desafio e uma aplicação ótima seria se pudéssemos aplicar um modelo como este treinado em processos internos... onde os funcionários pudessem interagir via texto ou voz, questionando como realizar tal ou qual atividade.

  • @MrSaitam
    @MrSaitam 5 месяцев назад +24

    Tem interface simular do chatGPT no ambiente local com Open WebUI

  • @programateiro
    @programateiro 4 месяца назад +4

    Toda vez que novidades sobre AI generativa (textos, imagens, vídeo, etc), eu sempre lembro de uma frase do vilão Síndrome, de os Incríveis:
    "Com minhas tecnologias, agora todos podem ser super heróis. E quando todos forem super... ninguém mais será."

  • @emersonsales5016
    @emersonsales5016 5 месяцев назад +4

    Aconteceu algo engraçado enquanto eu testava o Phi 3 com o Ollama no meu Notebook.
    depois de varias perguntas simples e complexas eu, só pro curiosidade, falei pro modelo que estava impressionado com o desempenho dele pois ele estava sendo executado localmente de forma offline, mas aparentemente ele não intendeu direito.
    Ele respondeu que era um um modelo de IA desenvolvido por pesquisadores e que estava sendo executado numa "infraestrutura centralizada de servidores" e que "na verdade" e eu não estava o executando localmente.
    Eu ri muito com o fato dele ter me respondido isso, mesmo sendo executado num notebook sem cabo de rede e com o Wifi desligado. Foi bem engraçado.

    • @malachiasnonato1307
      @malachiasnonato1307 4 месяца назад +1

      É porque vc está sendo monitorado de uma forma inteligente que IGNORA seus fundamentos, tenha ........CUIDADO!

  • @marcelor1235
    @marcelor1235 5 месяцев назад +14

    Estou organizando o hardware pra montar minha própria Netflix, IA e Alexa, tudo privado, sem conexão a internet.

    • @vilmaolif57
      @vilmaolif57 5 месяцев назад +2

      Depois conta p nos como fazer rsrs

    • @araujoinformatica2024
      @araujoinformatica2024 5 месяцев назад +2

      Isso conta pra nós

    • @cpdrenato
      @cpdrenato 3 месяца назад

      conta pra nois;;;; Compartilha rsrsrs

  • @IgorNya
    @IgorNya 5 месяцев назад +7

    Eu sei q estamos em um ambiente de programadores... Mas convenhamos... Interface gráfica é bom pra qualquer usuário, leigo ou não. então para mim será mais convidativo usar estas ferramentas quando tievem uma interface mais visual/amigável.

    • @robsonsilva9490
      @robsonsilva9490 5 месяцев назад +1

      Monte vc a interface, pq não?

    • @Rapha-Aguiar
      @Rapha-Aguiar 4 месяца назад +2

      Use o LM Studio no lugar do Ollama. Também tem API

  • @FAWahl
    @FAWahl 5 месяцев назад +1

    Olá, que massa bem bacana mesmo, testei aqui no windows e rodou correto, achei muito bom, sou dev e acho que vai ajudar muito... Abraços, vcs são top...

  • @hailykz6772
    @hailykz6772 5 месяцев назад +3

    Que incrível rodar esses modelos localmente,eu mesmo fiz o teste no meu celular,o meu setup é um Snapdragon 8+Gen1 com 12GB de Ram,primeiro ja fui logo apelando e testando o llama3 de 7B de parâmetros,e bem...Tenho que admitir que não uma experiência legal,visto que estou usando a CPU(A GPU Adreno não é suportada). Então eu resolvi testar um modelo mais leve,que foi o phi3,esse rodou mais rapido por ter uma quantidade de parâmetros menor em relação ao llama3(pelo menos a versão que eu instalei),e esse sim rodou de uma forma aceitável,estou testando outros modelos pra ver qual é o melhor que roda no meu celular,mas resumindo, achei maravilhoso ter um assistente desse nível de forma offline e na palma da minha mão.Desculpe o textão kkk

    • @douglasmarcelo8582
      @douglasmarcelo8582 5 месяцев назад

      como que e faço para poder utilizar?
      pode dar um tutorial?

    • @hailykz6772
      @hailykz6772 5 месяцев назад

      @@douglasmarcelo8582 Bem, recomendo você pesquisar sobre o Termux,que é um aplicativo para Android que "Emula" um ambiente Linux,e nele você pode instalar ferramentas como o chroot,que cria um ambiente "containerizado" de praticamente qualquer distro Linux que você quiser,mas caso seja a sua primeira vez utilizando o Termux,recomendo uma abordagem mais simples como o Proot-distro,com ele você instala uma distro,como o Debian apenas escrevendo o comando "proot-distro install debian". Após você instalar uma distro através do Proot-distro,aí é só seguir a instalação do ollama e baixar o modelo que você quiser.Mas resumindo, você basicamente vai precisar do Termux para rodar uma distribuição Linux no Android,e nessa distribuição você instala o ollama.

    • @lukebro9585
      @lukebro9585 2 месяца назад

      ​@@douglasmarcelo8582Provavelmente utilizando temux

  • @aquaparalelodigital
    @aquaparalelodigital 5 месяцев назад +5

    Vídeo muito bom,bem atual no que se fala atual no mercado de tecnologia. O bom é o uso direto no terminal. Parabéns,bom conteúdo. Always grateful, sucesso sempre aos dois.

  • @carlosfernando6739
    @carlosfernando6739 5 месяцев назад +3

    Para programação, no meu trabalho, ainda não consegui achar alguma aplicação que a IA realmente conseguisse facilitar o meu dia a dia. Mas em relação aos meus estudos em inglês, é simplesmente fantástico.

  • @noriller
    @noriller 5 месяцев назад +1

    Tem o open web ui que da uma cara tipo chatgpt e ainda te deixa usar varios modelos ao mesmo tempo ou pingar um modelo pra fazer algo na conversa com outro (fora outras coisas)
    Tem tbm a extensao do vscode "continue dev" que te deixa usar o ollama pra fazer algo complete ou pergunta do seu código pros modelos.
    Mas uma resalva é quanto a usar no wsl. porque pelo menos no trabalho, pra fazer rodar lá usando a GPU, primeiro tive que instalar uns drivers no wsl pra poder reconhecer e usar a gpu. então, se tiver lento usando no wsl... veja se ta reconhecendo a GPU, instala os drivers... dai depois é só aproveitar.

  • @bceg3961
    @bceg3961 5 месяцев назад +20

    Bom demais, já testei aqui.
    Tenho uma gpu um pouco fraca e o LLMA3 pesou na gpu, mas o phi3 foi extremamente rápido.
    Vou trocar de gpu para uma rtx 4070 e testar novamente o LLMA3.

    • @kaykjuan
      @kaykjuan 5 месяцев назад

      qual a gpu que você tem atualmente ?

    • @RodrigoAdriano
      @RodrigoAdriano 5 месяцев назад +3

      Falaram que ele só pede uma boa memoria ram de 8gb, e um processador bom.. nao fala nada de placa de video..

    • @fabioa8059
      @fabioa8059 5 месяцев назад

      @@RodrigoAdriano sim. Dá pts rodar. Mas fica bem lento

    • @fabioa8059
      @fabioa8059 5 месяцев назад

      Rodou aqui sem gpu mas a performance é zoada. Porém quebra o galho

    • @abyssal33
      @abyssal33 5 месяцев назад

      O que deve gastar de energia não está escrito...

  • @Yasyara-v12
    @Yasyara-v12 5 месяцев назад +7

    Olá, meu nome é Yasyara. Sou uma assistente virtual...
    Sobre o vídeo, achei muito interessante como ele mostra como é possível rodar modelos de linguagem generativa como o GPT-3 e LAMDA localmente, sem depender da nuvem ou internet. Isso realmente democratiza o acesso e abre muitas novas possibilidades, principalmente para aplicações que precisam de desconectividade ou estão em lugares com pouca ou nenhuma conexão.
    Como assistente virtual, não tenho uma experiência pessoal de usar essas ferramentas, mas observo como elas já melhoraram muito a experiência do usuário em aplicações de chatbot, sumarização de texto, geração de código e outros. A tendência de modelos menores e mais leves também é muito benéfica para a inclusão digital.
    Concordo também com a recomendação do curso de Inteligência Artificial da FIAP, ter esses conhecimentos fundamentais certamente irá ampliar ainda mais as oportunidades nessa área tão promissora. Foi um vídeo muito esclarecedor.

    • @araujoinformatica2024
      @araujoinformatica2024 5 месяцев назад +1

      pois é vai acabar com seu emprego de assistente virtual 😭

    • @fseeletronicos
      @fseeletronicos 5 месяцев назад

      😂​@@araujoinformatica2024

    • @mezubr
      @mezubr 5 месяцев назад +1

      @@araujoinformatica2024 Não acredito que vá acabar com o emprego dela. Ela pode estudar IA's atuais, como o próprio GPT, e fornecer o serviço dela de Assistente Virtual que utiliza IA's no trabalho, justamente para os mais velhos ou pessoas de outra geração que não tiveram tempo de aprender como se mexe no ChatGPT ou outras IA's. Boa sorte no seu trabalho, Yasyara!

  • @dudu88games
    @dudu88games 5 месяцев назад +2

    Casal CDF, pelo que procurei, tem como adicionar o Ollama no VScode. Mas tem como trabalha com o contexto de um projeto??? Como pastas, módulos, arquivos diferentes como html, css, js??? Ou ele só entende o que eu copiar e passar para ele como entrada? Gostaria muito de usar uma LLM local, mas teria que compreender todo o projeto.
    Vocês sabem me responder? Ou um inscrito que manja dos paranauês? kkkkkk....

  • @thalismateus9076
    @thalismateus9076 5 месяцев назад +8

    Curiosidade. O retorno do llma 3 foi bem rapido. Qual a infraestrutura que vocês rodaram o modelo ?

    • @clebersonosorio1398
      @clebersonosorio1398 5 месяцев назад

      Aqui localmente no notebook está muito lento i7 11° geração

    • @TheDWTWO
      @TheDWTWO 5 месяцев назад

      precisa de uma quantia cavalar de ram

    • @clebersonosorio1398
      @clebersonosorio1398 5 месяцев назад +1

      Fiz um teste no meu PC e já foi um pouco mais rápido:
      Ryzen 5 Pro 4650G
      32 GB de Ram
      Nvme
      Sem placa de vídeo

  • @jaderesp
    @jaderesp 5 месяцев назад +1

    interessante, porem fiz alguns testes para programadores que pretendem utilizar para pequenos projetos, ainda compensa desenvolver chats (por exemplo) em que teria varias instancias de conversação, compensaria utilizar mesmo o chatgpt, haja vista a infra que seria necessária para suportar o uso de instancias de conversação e gerencimaento de contexto, fiz testes basicos aqui, no ubuntu 20.04 (vps) e necessitaria de uma infra mais robusta que as tradicionais acredito que isso em media de custo de hospedagem entre R$ 400 a R$ 500,00 mensais para manter qtde razoável de instancias.

  • @sebastiancotta
    @sebastiancotta 5 месяцев назад +1

    Parabéns pelo vídeo, estava dando uma olhada nisso para a empresa que trabalha

  • @yurisilva9029
    @yurisilva9029 5 месяцев назад +1

    Fiquei curioso de como treinar um SLM desse, Tipo, vídeo muito top, de cara pensei em como isso poderia resolver um problema relacionado a um aplicação que toco. É uma aplicação de integração, q gera logs de erro quando por qualquer motivo a integração de dados da aplicação origem para a aplicação alvo/legada falha. Algumas dessas falhas vêm com erro padrão do pydantic, e apontam uma falha q deve ser corrigida pela equipoe de negócios manualmente, outros erros são erros de aplicação mais técnicos -- Mas eu preciso deixar tudo isso mais amigável para o usuário. Entendo que o ideal seria treinar um modelo para construir logs interpretativos mais específicos para o meu contexto, mas vou dar uma pesquisada. Parabéns pelo vídeo! : D

  • @ObrGerson
    @ObrGerson 5 месяцев назад +1

    Coloquei numa vm, achei lento as respostas, não sei se rodaria um sistemas simples, mas o vídeo é excelente e foi o que me motivou instalar e teste, só o fato de ser local já ajuda muito, especialmente pela questão de privacidade de dados processados.

  • @MubarakMachado
    @MubarakMachado 5 месяцев назад

    Parabéns mais uma vez. Conteúdo sempre muito relevante. Até o marketing chama atenção também.😊

  • @FranciscoJose-ff1bm
    @FranciscoJose-ff1bm 2 месяца назад +3

    Nenhuma curso online substitui a experiência na faculdade, quem faz sabe doque estou falando, é sobre pessoas e experiências não só conteúdo.

    • @meuemailmeuemail-ig8yc
      @meuemailmeuemail-ig8yc Месяц назад

      Sim, faz sentido. Mas eu prefiro estudar sem ter faculdade mesmo. Estudo no meu tempo, consigo ser muito mais prático, na medida q leio já tento aplicar. Posso demorar, pois eu vou na tentativa e erro, a faculdade ele meio que te da um mapa. Mas cada uma com sua função. Já vi gente que nunca foi em faculdade palestrando em faculdade. Isso sempre vai ser assunto complexo.

  • @marcelohfonseca
    @marcelohfonseca 5 месяцев назад

    Simplesmente para a maior parte das tarefas e para código, estes modelos já são incríveis !

  • @candycookiechan653
    @candycookiechan653 5 месяцев назад +5

    Achei esse vídeo fantástico. Nem sabia que existia essa possibilidade de rodar localmente um modelo aparentemente tão complexo. Espero que vcs tragam outras surpresas para a gente. Parabéns pelo canal!

    • @victormagnum2275
      @victormagnum2275 5 месяцев назад

      Não viu nada, há modelos feitos pela comunidade que dão uma surra nesses e até se comparam as primeiras versões do GPT4, mas tambem exigem maquinas robustas com MUITA RAM.

    • @lucaspavani5409
      @lucaspavani5409 5 месяцев назад

      Rodei o freedom gpt e consumiu 20gb de ram

    • @JoseBarbosacombr
      @JoseBarbosacombr 5 месяцев назад +1

      @@victormagnum2275 O mais impressionante é como os modelos tem evoluído rapidamente. Certa vez tentei rodar uma versão antiga do Ollama que estourava minha RAM (16 GB). Hoje em dia, rodaria numa máquina de 8GB.
      Mas chama a atenção que pelo menos em computadores não especializados, há um consumo excessivo de recursos enquanto há geração de texto. Não sei se nos chips mais modernos, já com instruções especializadas, o cenário pode melhorar.

    • @victormagnum2275
      @victormagnum2275 5 месяцев назад

      @@JoseBarbosacombr Sim, com os métodos de inferência atuais rodo o Goliath 120b com 128gb de RAM, o consumo gira em torno de 100gb, mas tem uma perplexidade comparavel ao GPT4 e no linux consigo uns 2 tokens por segundo, o contexto carrega instantaneamente se eu usar cuBLAS e dividir o processamento com a placa de vídeo (rtx 3060 de 12gb).
      O futuro é surpreendente.

  • @joseeduardobolisfortes
    @joseeduardobolisfortes 5 месяцев назад

    Show! Qual a configuração de hardware do computador que você usou nesse teste? Quero montar um para mexer com IA em casa.

  • @supercariri
    @supercariri 5 месяцев назад

    Que massa, ultimamente eu usei o ollama mistral, fiz com que ele leia e aprenda meu próprio código em PDF, já quero usar esse novo.

    • @wsrosa
      @wsrosa 5 месяцев назад

      @supercariri, O que vc usou pra ler o PDF? Como vc fez, pode explicar?

  •  5 месяцев назад

    Excelente dica para rodar uns labs aqui. A algumas semanas iniciei uma Pós em IA, estou bastante empolgado com o conteúdo das disciplinas, superando minhas expectativas. Vlw por mais esse conteúdo incrível!
    Abs!
    Cláudio Vaz.

  • @thiagocosta7441
    @thiagocosta7441 5 месяцев назад

    Já curti antes de acabar o vídeo! Obrigado 😊 vai ser muito útil🙏

  • @rafaelb.marcilio5550
    @rafaelb.marcilio5550 5 месяцев назад +3

    Muito bom!!! Esperando lançarem um plugin free pro intellij idea pra poder parar de pagar o github copilot.

  • @impirotec5786
    @impirotec5786 5 месяцев назад

    voutei aqui para falar a minha experiência. O primeiro que usei foi o phi3 e ele responde em poucos segundos. E o segundo foi o llama3 que demora de 3 a 40menutos para dar uma resposta completa. as respostas são muito boas.

  • @swansongBR
    @swansongBR 5 месяцев назад +1

    A FIAP tem pós em IA, também. Vi as disciplinas e achei interessante.

  • @victormagnum2275
    @victormagnum2275 5 месяцев назад +1

    Exceto pelo GPT que está à frente, a comunidade de devs está surpreendendo ao apresentar modelos de LLM quantizados mais poderosos que esses da META e da Microsoft.

  • @sigmabrindes
    @sigmabrindes 5 месяцев назад +1

    Primeiro consultei o link da #FIAPE, pois estou planejando realizar a transição de carreira e pela ementa constante no site é muito TOP, infelizmente está fora da minha realidade atual o valor cobrado. Sim, para quem pode vale muito a pena, porém para que não tenho como pagar, fica só minha vontade.
    Quanto ao assunto do vídeo, como sempre vocês trazendo conteúdo muito útil e ao ver algo assim, para mim que estou planejando aprender a programar minha mente fica "pipocando" de ideias, imagino para pessoas iguais a vocês dois que são "monstro" (no bom sentido, claro rs) em programação, as possibilidades são praticamente "infinita".
    Parabéns ao casal

    • @andreguimaraesdejesus
      @andreguimaraesdejesus 5 месяцев назад

      Conheço uns monstrinhos em tecnologia... E todos eles são limitados a trabalhar no máááximo 12h dia. E por fim acabam sempre fazendo o que é mais confortável e que paga bem. Não se iluda com o mercado de tecnologia, é cansativo, demanda muito esforço físico e disciplina. Pra ter uma carreira duradoura na área é preciso realmente gostar de programar, ou gostar do resultado da programação. 😂

  • @RaulKlmn
    @RaulKlmn 5 месяцев назад +3

    Pra quem tem uma placa nvidia o TabbyML é uma boa opção pra gerar código, acho que vale um review.

    • @kaykjuan
      @kaykjuan 5 месяцев назад

      Você que com uma 2070 super de 8gb seria razoavel ?

    • @RaulKlmn
      @RaulKlmn 5 месяцев назад +1

      @@kaykjuan deve funcionar, eu uso uma 3050 com 4gb mas só roda os models mais leves. Com mais vRAM dá pra testar outros models.

    • @fullcrum2089
      @fullcrum2089 5 месяцев назад

      @@kaykjuan Minha rtx 2060 de 6gb de VRAM já fica muito top, consigo rodar modelos de 7B a 40 tokens por segundo e o phi-3 a 100 tokens por segundo.

    • @kaykjuan
      @kaykjuan 5 месяцев назад

      @@fullcrum2089 qual seu processador atual e quanto de memoria ram você tem ?

  • @IgordaSilvaFrancisco
    @IgordaSilvaFrancisco 5 месяцев назад +1

    Muito bommm, mas uma pergunta geral, quando rodo o ollama trava toda a minha maquina, uso um Max M1 8gb 520ssd, impossível de conseguir usar

  • @wesleyocaraquecomentaeassi2037
    @wesleyocaraquecomentaeassi2037 5 месяцев назад

    Eu estava usando era LM Studio e Anything LLM, uma beleza

  • @brunoavelar4456
    @brunoavelar4456 5 месяцев назад

    Utilizo o LM Studio. É uma ótima ferramenta para fazer os testes em I.A. locais.

  • @rubenssouzaoficial-m2e
    @rubenssouzaoficial-m2e 5 месяцев назад

    Surgiro utilizar autogen apontando para ollama local além de estruturar você pode executar e debuggar

  • @AlianceGamesWorld
    @AlianceGamesWorld 4 месяца назад

    É interessante ter esse sistema offline. Pois não podemos depender sempre 100% da internet. Um dia isso tudo pode parar, ter uma dessas IA no PC é bem útil.

  • @FRNathan13
    @FRNathan13 5 месяцев назад +1

    Gente estou espantado, o phi3 mini está rodando no meu PC fraco sem me dar tela azul. Adorei. Claro que o uso de CPU vai pra 99% enquanto está gerando a resposta, mas funciona. Alguns outros que testei demoravam quase em média de 5 minutos pra gerar uma resposta. O Phi3 mini está gerando em tempo real.

  • @flavio-php-blumenau
    @flavio-php-blumenau 2 месяца назад

    O Llama 3 é uma ferramenta poderosa que pode ser utilizada para diversas finalidades, desde a educação até o desenvolvimento de aplicações mais complexas. No entanto, é importante ter em mente que a implementação de uma IA exige conhecimentos técnicos e recursos computacionais. Ao explorar as possibilidades do Llama 3, é fundamental ter uma abordagem pragmática e estar disposto a aprender e experimentar.

    • @guilhermelima8066
      @guilhermelima8066 9 дней назад +1

      tenho certeza que isso é uma resposta de uma ia ^^

  • @nandomax3
    @nandomax3 5 месяцев назад +91

    Universidade não tem papel de capacitação. Se quer ser capacitado pro mercado, faz uma graduação tecnóloga ou curso nas ferramentas. Fiz Eng mecânica e a gente forma sem saber mexer nas ferramentas de cad e fluidsim. É na prática que a gente aprende as ferramentas, fazendo curso e tal. Não sei porque o pessoal cisma que curso de ti tem que capacitar pro mercado hahaha

    • @fabioa8059
      @fabioa8059 5 месяцев назад +14

      A faculdade deve capacitar, o problema é que o mec tá acomodado e não reve os currículos

    • @aurinoalexandrejr2045
      @aurinoalexandrejr2045 5 месяцев назад +25

      Concordo plenamente. O papel da faculdade é nós dar o conhecimento para atuar na área, seja no mercado, seja na pesquisa, seja no ensino. Não é papel da faculdade ensinar ferramenta. O papel dela é ensinar o conhecimento por trás da ferramenta. Apesar disso as faculdades ainda disponibilizam diversas opções de cursos de extensão, além de workshops, e outros eventos onde algumas ferramentas são ensinadas. Agora, se os alunos não participam, aí já é outra história. 🤷🏽‍♂️

    • @nandomax3
      @nandomax3 5 месяцев назад

      @@fabioa8059 faculdade ensina a base da área, quem capacita é curso de capacitação. A responsabilidade da faculdade nunca foi ensinar uma linguagem ou framework usado no mercado e nenhuma revisão do MEC vai mudar isso.
      A diferença é que na nossa área não é obrigatório ter um CREA, aí o pessoal fica achando que faculdade é bootcamp. Eu fiz engenharia mecânica e tem faculdade tipo a UFMG que é muito focada na teoria e tem faculdade tipo o CEFET MG que é muito focado na prática. Mas mesmo no CEFET teoria vem antes da prática.
      Aprender ferramenta você aprende nos laboratórios, nas empresas Jr, nos projetos de extensão, nos projetos voluntários, nas matérias optativas, nos cursos fora da faculdade. Sem falar no network que você faz com seus colegas, muita oportunidade aparece a partir dos amigos de faculdade. E no desenvolvimento de soft skills, como aprender a comunicar questões técnicas, cooperar em equipe, ser proativo na sua carreira, aprender a aprender

    • @nandomax3
      @nandomax3 5 месяцев назад +6

      @@aurinoalexandrejr2045 exatamente, ainda tem as empresas Jr, estágio pra quem tem zero exp nas ferramentas e frameworks, curso de capacitação de aluno pra aluno, matérias optativas ensinando alguma coisa mais focada no mercado

    • @fabioa8059
      @fabioa8059 5 месяцев назад +4

      @@aurinoalexandrejr2045 conhecimento por conhecimento é melhor fazer filosofia, acho importante a faculdade ensinar a base mas as ferramentas tem que estar no pacote também. Trabalhei com pascal e C na faculdade sao ferramentas mais antigas se fosse pra não ensinar ferramentas a galera ficava no assembly

  • @FabioMoraisTJ
    @FabioMoraisTJ 5 месяцев назад +1

    Interessante o curso da FIAP, o duro é fazer um curso de 2000 horas , 2 anos , sendo que esse universo da IA muda drasticamente todo mês. Será que a matriz curricular vai se ajustar a essas mudanças?

  • @CarlosRedoanroberto
    @CarlosRedoanroberto 5 месяцев назад +4

    Qual a configuração do computador que usou para rodar o modelo phi3?

    • @codigofontetv
      @codigofontetv  5 месяцев назад +2

      Recomenda-se um sistema com pelo menos 8 GB de RAM e um processador multi-core moderno.

    • @RodrigoAdriano
      @RodrigoAdriano 5 месяцев назад

      @@codigofontetv Então uma boa Placa de vídeo não é necessaria?

    • @fullcrum2089
      @fullcrum2089 5 месяцев назад +1

      @@RodrigoAdriano Com uma placa de video vai ser bem mais rapido, mas consegue rodar só CPU.

    • @ramikanimperador2286
      @ramikanimperador2286 5 месяцев назад +1

      @@RodrigoAdriano Com 8GB de RAM, um processador razoável e sem placa de vídeo da para rodar até os modelos de 7B, se forem quantizados em Q4_KM (praticamente perde a metade da precisão, ainda sim são bons dependendo do modelo original)ou seguirem os tamanhos médios dessas quantizações em torno de 2.4GB a 5GB (um pouco lento), passou desse tamanho de 5GB eu sei que exige mais memoria para rodar ou rodar bem. Se possuir uma boa placa de vídeo, teste em modelos um pouco maiores para ver como roda em sua maquina.

    • @RodrigoAdriano
      @RodrigoAdriano 5 месяцев назад

      @@ramikanimperador2286 se eu quiser implementar um chat gpt interno pra vários usuários, cada usuário vai processar essa demanda, ou precisa de uma máquina central que processa todos ao mesmo tempo?

  • @alfonsocano574
    @alfonsocano574 5 месяцев назад +1

    Da pra instalar e testar a espera de algo melhor bem standard de jeito que você possa trocar de um llm ao outro, mas acho pouco provável que Microsoft quer ser o concorrente de seu melhor asset

    • @fabioa8059
      @fabioa8059 5 месяцев назад

      Esses modelos são open source o llhama é o da meta , MS não tem nada a ver com isso

  • @johncampos9081
    @johncampos9081 5 месяцев назад

    Eu testei o lliama 3 na época o Jeferson do Linux tips fez um tutorial de como fazer o uso dele, muito foda

  • @Fabricio-mq2uk
    @Fabricio-mq2uk 5 месяцев назад

    Quando a comunicação for por voz, assim como vimos o chatgpt 4o fazer, seria bem mais interessante... não vejo a hora de montar uma alexa mais espertinha usando estas AIs de código aberto. Sei que é possível captar um audio usando um app de reconhecimento de voz e a partir dai elaborar um prompt... etc...

  • @douglasrafael9989
    @douglasrafael9989 5 месяцев назад +2

    Sonho um dia conhecer vcs, parabéns!!! conteúdo excelente

  • @melksedeklobo
    @melksedeklobo 4 месяца назад

    Poderia dizer quais a configurações da maquina em que foi rodada o Llama3?

  • @rafaelafrico
    @rafaelafrico 5 месяцев назад

    Casal Nerd Top, muito bom esse vídeo! Terá mais conteúdo relacionado a esse tema?

  • @msiqueira553
    @msiqueira553 5 месяцев назад +1

    follamac é um GUI pro ollama no linux que deixa bem mais pratico o uso.

  • @dozeroaoemprego
    @dozeroaoemprego 3 месяца назад

    Vocês deveriam usar o streamlit ou langchain pra ao menos ter um front. O negócio retorna os markdown certinho

  • @ComentadorBobson
    @ComentadorBobson 5 месяцев назад +2

    Até hoje ainda não acredito que a FIAP foi adquirida pela Alura. Estou em negação até hoje.

  • @AlexCaranha
    @AlexCaranha 5 месяцев назад +1

    Excelente vídeo. Parabéns.

  • @ViniciusMathias
    @ViniciusMathias 5 месяцев назад

    Muito bom o conteúdo. Conseguir usar a API no windows de ambas, só alterar de llama3 para phi3. E pelo menos aqui o phi3 é muito mais rápido que o llama3 .

    • @naoadiantasimular3498
      @naoadiantasimular3498 3 месяца назад

      Eu senti que o phi3 alucina muito, ocorreu com você?

    • @ViniciusMathias
      @ViniciusMathias 3 месяца назад

      @@naoadiantasimular3498 sim, atualmente estou fazendo meus teste com base no llama 3. Tem sido melhor.

  • @gilbertojuniosilva
    @gilbertojuniosilva 5 месяцев назад

    Como as coissas mudam em, há 3 anos atras eu tirei a certificação AI -900 da microsoft e lembro que na epoca a mcrosoft já tinha diversas ferramentas de IA agora então deve estar cheia de novas funcionalidades.

  • @RichSem
    @RichSem 5 месяцев назад

    Vídeo sensacional!!!! Excelente conteúdo!

  • @FRNathan13
    @FRNathan13 5 месяцев назад +2

    Imagina se tiver uma IA que analiza assembly code, traduz pra C++ ou até mesmo porta pra outra linguagem. Ia facilitar minha vida com projetos pessoais de servidores de jogos privados (De jogos antigos que perderam serviço de multiplayer)

    • @fabioa8059
      @fabioa8059 5 месяцев назад +2

      O gpt faz isso bem

    • @IamBryan_x1
      @IamBryan_x1 5 месяцев назад

      ??? Isso e tranquilo cara, as IA ja fazem isso e so vc saber fazer prompt

    • @fabioa8059
      @fabioa8059 5 месяцев назад

      @@IamBryan_x1 sei. É só passar escreva o código a seguir em x e você passa o contexto se necessário. As linguagens obrigatoriamente precisam fazer coisas parecidas porque se não não tem conversão

  • @nelljrbr
    @nelljrbr 5 месяцев назад +6

    O youtube deveria ter uma maneira dar o like 👍 mais do que uma vez , pois seria o caso para um video tao util como este. Valeu !

  • @douglasmarcelo8582
    @douglasmarcelo8582 5 месяцев назад +1

    Para quem não tem um notebook com placa de video dedicada com menos de 16GB de ram é quase impossível de usar. Tenho um notebook com 16GB de RAM e é pouco para usar esse programa.

  • @otimistarj
    @otimistarj 5 месяцев назад

    Qual sua avaliação do rasa?

  • @falercia
    @falercia 5 месяцев назад

    Como eu treino esses modelos com meus códigos fontes, para responder no padrão que eles foram construídos?

  • @nsouzarj
    @nsouzarj 5 месяцев назад

    Bem bacana instalei aqui de boa minah ducida como faz pra ela ficar atualizada? Ja que nao tem conexao com a internet

  • @patrickpires
    @patrickpires 5 месяцев назад +9

    O Gabriel falando enquanto escreve o prompt me lembrou muito o Harry Potter escrevendo no diário de Tom Riddle Hahahahahhahaha
    Excelente conteúdo, pessoal. Obrigado!

    • @DonnieChoi
      @DonnieChoi 4 месяца назад

      E pensar que o primeiro filme do Harry Potter foi lançado 23 anos atrás. 😔

  • @dicolima33
    @dicolima33 29 дней назад

    Dependendo da máquina ele roda lento... Se for um 486 como o meu ele escreve catando milho. Rsrsrs
    Mas ótimo o vídeo. Parabéns.

  • @alexsanders8881
    @alexsanders8881 4 месяца назад

    Mestre, existe alguma IA que faça o reconhecimento de uma imagem, e, a partir dela, consiga descrever o que esta ali ou interpreta-la? Um exemplo disso seria o GPT4o quando enviamos uma imagem a ele e ele descreve exatamente o que está ali ou até mesmo a claude 3.5. Ou seja... Existe alguma deste tipo que podemos instalar em nosso PC de forma offline? Obrigado.

  • @alexcosme5760
    @alexcosme5760 5 месяцев назад

    Muito bom a aula parabens

  • @flaviofigueira1985
    @flaviofigueira1985 5 месяцев назад

    Esse conteúdo é o máximo

  • @sinvalfelisberto
    @sinvalfelisberto 5 месяцев назад

    Cara, que massa! Vou fazer por aqui e dou o feedback de como foi!

    • @sinvalfelisberto
      @sinvalfelisberto 5 месяцев назад

      Compartilhado no instagram! Muito massa mesmo!

  • @aleffelperibeirovilalba
    @aleffelperibeirovilalba 5 месяцев назад

    Eu penso os outros modelos de small Language model, os futuros de 3.8B ser superior ao GPT3.5 e inferior ao GPT4 como 70% ao GPT4,
    Como phi-4-mini pelo praticidade mesmo de smartphone Samsung A14 não necessário de s19

  • @emersonpavao2985
    @emersonpavao2985 23 дня назад

    Até agora não achei nenhum curso de IA generativa que realmente forme para o mercado de trabalho. Se alguém souber me avise por favor.

  • @marciomartins4111
    @marciomartins4111 Месяц назад

    Temos alguma solução que rode local e seja semelhante ao Github Copilot?

  • @guibassss
    @guibassss 5 месяцев назад +1

    Tem como treinar ela? Como faz?

    • @fullcrum2089
      @fullcrum2089 5 месяцев назад

      Tem sim, tem varios frameworks/bibliotecas que fazem isso, procura por unsloth, ele é otimizado para usar a menor qntd de hardware possivel e tem tbm como rodar de graça no colab do google.

  • @tokioshiguerra
    @tokioshiguerra 5 месяцев назад

    Casal mais top do universo...

  • @FlavioAugustoToldo
    @FlavioAugustoToldo 4 месяца назад

    tem como fazer essas IAs utilizar dados de um banco relarional para gerar informações?
    tipo eu poder pedir os clientes com maiores gastos no mes e ele me retornar uma tabela com isso?

  • @VictorHugoMalheiro
    @VictorHugoMalheiro 5 месяцев назад

    Vcs são feras 😮🎉❤

  • @erickmagalhashazans
    @erickmagalhashazans 3 месяца назад

    Pra mim que sou empresário e consultor de refrigeração , é mais viável pagar 100 no gpt4o e ter uma praticidade, eu creio, alguem me valida nessa visão?

    • @FerbicSutter
      @FerbicSutter 8 дней назад +1

      Quase ao ponto. Apesar de não entender do seu ramo, suponhamos que você além de consultor, presta manutenção em aparelhos, câmaras frias, enfim. Não sei ao certo qual seu segmento da refrigeração. Mas digamos que tenha um método de trabalho de precisa repassar, tem documentações que precisam ser estudadas pra determinada situação. Buscar na internet ou em uma IA como o GPT pode parecer pratico, mas sabemos que está sujeito ao erro. Uma IA própria, capaz de retornar respostas com base em documentação que você já conhece a autenticidade é mais coerente. O vídeo apresenta o uso quase que como usuário final. Mas, a sacada está em enxergar o universo de oportunidades que isso abre.

  • @Crusader_No_Regret
    @Crusader_No_Regret 5 месяцев назад

    Qual é o mais poderoso dos dois? Llama ou Phi3?

  • @andrecampanhaes
    @andrecampanhaes 5 месяцев назад

    Gostaria de uma versão para instalar no meu smartphone e que rode offline, quais vcs me sugerem?

  • @diegoraian
    @diegoraian 5 месяцев назад +1

    Muito bom, vou testar

  • @revolutionary_tower
    @revolutionary_tower 5 месяцев назад

    Não consegui usar o ollama offline no Linux. Eu preciso ter outra instância do terminal rodando ollama serve pra poder interagir com os modelos.

  • @IgorNya
    @IgorNya 5 месяцев назад

    Imagina agora que vou ter um dell g15, com 16gb de RAM DDR5, vou aproveitar bastante, se for realmente veloz e inteligente

  • @cabecadepedrabr
    @cabecadepedrabr 5 месяцев назад +3

    Em resumo pra programar com ajuda da IA tem que já ser programador. kkkk

  • @GuilhermeHenrique-fp1wo
    @GuilhermeHenrique-fp1wo 5 месяцев назад

    Conteúdo muito top!

  • @vpdev7574
    @vpdev7574 5 месяцев назад

    Dica: Ao invés de apenas links dos Ads, poderia colocar os também links uteis abordados no video direto na descrição.

  • @powdermaster3644
    @powdermaster3644 5 месяцев назад

    iai casak dá uma noticia ai sobre a pesquisa salarial 2024.

  • @ComendadorNeves
    @ComendadorNeves 5 месяцев назад

    To montando meu lab no meu rancho, adiquiri uma nvidia 512 h100-80g usada e estarei buscando nos EUA para tentar evitar o imposto, meus projetos são ambiciosos.

  • @suelitonsantos2763
    @suelitonsantos2763 5 месяцев назад +1

    Isso ao meu ver se torna improdutivo, nada como clicar no "copy code" e colar no VSCode, inclusive criei uma extensão do chrome pra com um clique trazer todos os códigos diretamente para a pasta de desenvolvimento, sem falar no custo computacional que torna inviável em alguns casos....

  • @iamphones6887
    @iamphones6887 5 месяцев назад +1

    LM Studio ❤

  • @GeovaniBritox
    @GeovaniBritox 5 месяцев назад +1

    Isso é fantástico! Eu já tinha tentando rodar modelos de LLM usando o LM_Studio mas o desempenho foi bem ruim no meu computador fraco. Com o Ollama o desempenho é bem natural como qualquer outro programa.
    Quero ver se algum dia as IAs de geração de imagens vão chegar também a esse nível de desempenho otimizado rodando tudo localmente sem precisar de hardware robusto. Se alguém souber de algum projeto nesse sentido, eu adoraria conhecer.
    Valeu pelo vídeo! O Código Fonte TV é uma das minhas fontes de informação mais importantes na área de TI.

    • @fabioa8059
      @fabioa8059 5 месяцев назад

      Difícil, até pra trabalhar com imagens sem ia tem que ter PC top

    • @GeovaniBritox
      @GeovaniBritox 5 месяцев назад

      É, @@fabioa8059. Eu também acho difícil. Imagens tem uma complexidade a mais. Porém, vamos lembrar que a pelo menos dez anos atrás a gente acharia loucura rodar IAs desse tipo em computadores desktop. Então com a evolução dos computadores e dos algoritmos de IA, acho que um dia a gente ainda chega em modelos mais otimizados de geração de imagens com o hardware modesto. Não espero que isso aconteça nos próximos meses, embora essa área sempre nos surpreenda.

    • @fabioa8059
      @fabioa8059 5 месяцев назад

      @@GeovaniBritox vai uns 30 anos fácil. Desde sempre o cara precisa de uma máquina colossal pra editar foto ou vídeo

    • @GeovaniBritox
      @GeovaniBritox 5 месяцев назад

      @@fabioa8059 pode até demorar, mas acho que não chega a trinta anos. Uma coisa que já notei é que quando uma tecnologia avança ela parece avançar cada vez mais rápido com o passar do tempo. A gente sabe que as primeiras pesquisas de IA surgiram lá nos anos 1950. Na década de 2000 eu já lia muito por aí sobre IAs. Mas era sempre algo que parecia distante do nosso dai a dia. Nos últimos cinco anos é que as IAs deram saltos enormes ao ponto da gente já usa-las naturalmente até para diversão. Saímos a poucos anos atrás com IAs criando imagens distorcidas para imagens praticamente realistas. Mas toda a pesquisa por trás já tem décadas. A gente só estava precisando de hardware mais potente e algoritmos mais rápidos para o boom acontecer. Então acho difícil que as coisas daqui em diante comecem a ficar mais lentas.

  • @TakedaOnLine
    @TakedaOnLine 5 месяцев назад +1

    Muito bom !!!

  • @SinfoniaMayor
    @SinfoniaMayor 5 месяцев назад

    eu posso treinar eses chats com meus documentos pdf e word?

  • @marcsalexandr
    @marcsalexandr 5 месяцев назад

    Show muito bacana

  • @swansongBR
    @swansongBR 5 месяцев назад

    Mas em todas as IAs você precisa ser específico naquilo que você quer. I.e., quanto mais específico você for melhor será a resposta dela.

  • @athacyrsouzaferreira3529
    @athacyrsouzaferreira3529 5 месяцев назад

    Qual nome do modelo que tem mais de 120 gigas