Comecei a estudar sobre ollama esses dias e este vídeo como te falei lá no LinkedIn tá muito legal !!!! Primeiro conteúdo sobre essa tecnologia que vejo super friendly e “simples” de explicar !! Adorei
Mereceu meu muitos likes, traga mais conteúdos sobre usabilidade prática usando essa api, sei lá talvez como pra gerar imagem em promoções diferentes etc
Talvez tu já tenha conseguido a resposta kkkkkk, mas se não me engano esse modelo em específico não. O modelo da meta mais recente que consegue transcrever, gerar e processar imagens é o modelo multimodal Llama vision (e suas versões).
@@thi_code como eu faria pra deixar isso vinculado a um banco. Exp PostgreSQL. Eu passo as informações sempre que eu fizer uma requisição ? Exemplo: passo um json inicial com dados e depois vou pedindo as informações? Ou passo a cada consulta?
@@thi_codeum exemplo tenho lá um BD postsql. E nele tenho produtos com valores. Se eu perguntar pro chat qual valor de tal produto. Como faço pra ele verificar o preço e me retornar. Eu passo uma chamada pra ele com os valores anteriormente? Em um json por exemplo. Ou eu passo pra ele o que e crio uma chamada dele para o banco e depois ele retorna o valor hahaha eu não tenho projeto mas foi uma dúvida pode ser qualquer outro exemplo de como consumir banco partir do chat
depende do modelo. por exemplo, calculando rápidamente considerando apenas os parametros, Llama 3.1 com 8Bi de parâmetros vai ter recomendação MINIMA: 1 parametro = 1 float = 4 bytes 8Bi * 4 = 32 Bi de bytes 32 Bi bytes / 1000 = 32 Mi Kilobytes / 1000 = 32M Megabytes / 1000 = 32 Gigabytes Significa que para carregar esse modelo em memória, só para RAM precisaria de 32GB. VRAM da Placa de vídeo para processar a inferência seria algo em torno de 24 GB Placa de vídeo precisa ser um pouco boa também (recomendado RTX 3090) Se for executar direto na CPU pode ser bem lento. Escolha modelos mais leves.
Se quiser usar online pode considerar opções como o Groq. Ele usa o Ollama, mas vc já começa num plano gratuito com uns modelinhos. Testei a sensibilidade a prompt e gostei bastante
Thiago, você citou que podemos criar nosso próprio modelo, exemplo “dizer que ele é o Mário” mas tipo eu posso ensinar esse modelo? Exemplo ensina-ló para que ele seja um assistente para uma loja por exemplo? Um e-comerce algo do tipo? Ou ele apenas assume um personagem assim como o ChatGPT ?
Salve mano, é da MEta e da Microsoft... essa ollama é um conjunto de projetos open sources de "varias" empresas... Mas no meu video ficou confuso mesmo, foi mal ai
@@thi_code que é isso?! Trabalho muito bom. Parabéns. Eu estou patinando nesse mundo de IAs. Tentei acompanhar isso quando surgiu GPT para código antes do chat. Vi esse boom todo e agora estou tentando entender o status disso tudo. Curti demais essa ideia de usá-la em apis. Valeu
eu consegui aqui, depois de bater cabeça, basicamente n tava instalado nada aqui de Node, ai tem q entrar no site e baixar o node, e tambem é bom criar uma pasta, enfim. Nunca mexi com nada disso ai, nem VS nem porra nenhuma e ddeu certo aqui.
Comecei a estudar sobre ollama esses dias e este vídeo como te falei lá no LinkedIn tá muito legal !!!! Primeiro conteúdo sobre essa tecnologia que vejo super friendly e “simples” de explicar !!
Adorei
Massa demais Bea, fico feliz em ajudar!
Mereceu meu muitos likes, traga mais conteúdos sobre usabilidade prática usando essa api, sei lá talvez como pra gerar imagem em promoções diferentes etc
@@jffrancisco7264 valeu mano 🤘🏽
Pra usar no front, existe os projetos da space na huggingface.
Como conectar com o langchain essa API ?
Adorei o video, so faltou o link do github com o codigo na descricao do video como todo mundo faz, fica a dica !
Minha mãe sempre disse que eu não sou todo mundo hahaha brinks mano, eu sempre coloco, mas esse eu acho que nem versionei... valeu pela dica tmj!
Adicionei o link do repo mano!
Oii
o meu dá esse erro no postman e tá tudo certinho igual no video
Could not send request
Error: connect ECONNREFUSED 127.0.0.1:300
seu servidor node não está ligado
Esse modelo da meta consegue transcrever imagens?
@@jaelsonrc não sei
Talvez tu já tenha conseguido a resposta kkkkkk, mas se não me engano esse modelo em específico não. O modelo da meta mais recente que consegue transcrever, gerar e processar imagens é o modelo multimodal Llama vision (e suas versões).
Cara, que sensacional, já vou testar!!
Boa mano!
@@thi_code Obrigado mano!!
Muito bom meu caro!!!
Top em! Obrigado pelo conteúdo
@@Xunyexx tmj!
@@thi_code como eu faria pra deixar isso vinculado a um banco. Exp PostgreSQL. Eu passo as informações sempre que eu fizer uma requisição ? Exemplo: passo um json inicial com dados e depois vou pedindo as informações? Ou passo a cada consulta?
@@Xunyexx não entendi mano... explica qual é o projeto, qual o produto final...
@@thi_codeum exemplo tenho lá um BD postsql. E nele tenho produtos com valores. Se eu perguntar pro chat qual valor de tal produto. Como faço pra ele verificar o preço e me retornar. Eu passo uma chamada pra ele com os valores anteriormente? Em um json por exemplo. Ou eu passo pra ele o que e crio uma chamada dele para o banco e depois ele retorna o valor hahaha eu não tenho projeto mas foi uma dúvida pode ser qualquer outro exemplo de como consumir banco partir do chat
A Llama 3 consegue gerar imagens ou só Textos ? obg !
boa pergunta mano... tem que dar uma olhada na doc, não tenho essa info
@@thi_code Tmj irmão , fui testar só consegui gerar textos , mas valeu pela indicação !
Pode me tirar uma dúvida? No caso de subir para um ec2 o ec2 micro aguenta?
depende do modelo. por exemplo, calculando rápidamente considerando apenas os parametros, Llama 3.1 com 8Bi de parâmetros vai ter recomendação MINIMA:
1 parametro = 1 float = 4 bytes
8Bi * 4 = 32 Bi de bytes
32 Bi bytes / 1000 = 32 Mi Kilobytes / 1000 = 32M Megabytes / 1000 = 32 Gigabytes
Significa que para carregar esse modelo em memória, só para RAM precisaria de 32GB.
VRAM da Placa de vídeo para processar a inferência seria algo em torno de 24 GB
Placa de vídeo precisa ser um pouco boa também (recomendado RTX 3090)
Se for executar direto na CPU pode ser bem lento. Escolha modelos mais leves.
Oi tem como fazer ela rodando online ou só se instalar no pc pra ela funciona. precisa de placa de vídeo.
Se quiser usar online pode considerar opções como o Groq. Ele usa o Ollama, mas vc já começa num plano gratuito com uns modelinhos. Testei a sensibilidade a prompt e gostei bastante
Aee é prático hein!
Valeu
Muito Bom!!
Valeuu
Oi meu mano, estou usando um app que simula um sistema linux, termux conhece?, voltando pro assunto é possivel eu usar a api da llama?
mano, não conheço, mas se é um SO, mesmo que simulado como uma máquina virtual, o llama funciona... Mas precisa testar.
Que ferramenta maravilhosa!
Curti demais tbm!
Thiago, você citou que podemos criar nosso próprio modelo, exemplo “dizer que ele é o Mário” mas tipo eu posso ensinar esse modelo? Exemplo ensina-ló para que ele seja um assistente para uma loja por exemplo? Um e-comerce algo do tipo? Ou ele apenas assume um personagem assim como o ChatGPT ?
vc pode treinar ele sim!
Na openwebui tem modelos treinados que voce pode utilizar
vlw
Alguem pode me recomendar um curso de ollama
Melhor curso é o fuçometro mano… baixa, vê a doc e fuça… nada melhor pra aprender
Brother. Essa IA não é a mesma da Meta? Estou bem confuso aqui com sua afirmação que é da Microsoft.
É da Meta.
Salve mano, é da MEta e da Microsoft... essa ollama é um conjunto de projetos open sources de "varias" empresas... Mas no meu video ficou confuso mesmo, foi mal ai
@@thi_code que é isso?! Trabalho muito bom. Parabéns. Eu estou patinando nesse mundo de IAs. Tentei acompanhar isso quando surgiu GPT para código antes do chat. Vi esse boom todo e agora estou tentando entender o status disso tudo. Curti demais essa ideia de usá-la em apis. Valeu
@@manoeltsf tmj mano! Valeu pelo toque, bons estudos ai 🙏
irmão, nao entendi oq acontece no 4:45, o meu terminal aparece só em C:\User\Xyz>, não aparece ->ollama-api como no seu, como que faz pra ficar igual?
eu consegui aqui, depois de bater cabeça, basicamente n tava instalado nada aqui de Node, ai tem q entrar no site e baixar o node, e tambem é bom criar uma pasta, enfim. Nunca mexi com nada disso ai, nem VS nem porra nenhuma e ddeu certo aqui.
Thiago, agora tem como ensinar a como usar isso ai nos projetos? se puder, integrando ao n8n? 😭😭😭😭😭😭
o meu n abre a enterface gráfica. Pq?
qual interface?