Legal, estou trabalhando em um projeto para proteger meu gramado dos cachorros. A ideia é integrar o YOLO ou o OpenCV a uma câmera Intelbras, em tempo real, utilizando um filtro para identificar apenas cachorros. Quando a detecção ocorrer, pretendo acionar um dispositivo Sonoff, que, por sua vez, ativará o irrigador do jardim. Estou enfrentando dois desafios: o primeiro é integrar o endereço IP do canal da câmera Intelbras, e o segundo é criar um mecanismo para enviar um sinal para o relé do Sonoff assim que a detecção de cachorros acontecer.
Faaaaala The Vier!! É bem possível fazer isso!! Primeiro, para a câmera da Intelbras você pode usar o protocolo RTSP que ensino nesse vídeo aqui: ruclips.net/video/bHOvVuBFAGI/видео.html Dependendo do modelo da câmera, mudam alguns detalhes, mas o pessoal da Intelbras ajuda no whats! Já precisei várias vezes, e sempre ajudaram! A segunda etapa é que o SonOFF é um ESP8266!! Você pode regravar ele e fazer um programa personalizado (isso retirar o programa original e não tem como voltar)!! Basicamente você vai ler um frame da câmera usando OpenCV via RTSP que é, na prática, colocar a string com o endereço da câmera no openCV, para cada frame detectar os cachorros (que na versão nativa da YOLO já detecta) e quando detectar, mandar via rede o comando para o ESP8266!! Uma coisa que eu nunca fiz, mas sei que dá para fazer, é enviar comandos para o Sonoff sem regravar o esp!! Isso é possível, mas nunca fiz! Valeuuuuuuuuuuuu, depois diz se deu certo!
Meu amigo, eu tiro o chapéu pra você. Quando o cara tem didática é outra história. Já vi muito guia de programação que o cara fica falando as coisas como se fosse óbvio, sendo que nem sempre é óbvio pra gente. A sua comparação com o vestibular foi sensacional.
Usa essas variáveis: boxes = result.boxes.xywh.cpu() track_ids = result.boxes.id.int().cpu().tolist() Boxes tem as coordenadas XY (origem do quadradinho) e WH (largura e altura do quadradinho) de cada detecção!! E o track_id tem qual objeto foi detectado!! Então se vc quiser saber se detectou um objeto, faz um "if" no track_id!! E se quiser saber onde o objeto está na tela, vai no boxes!! Faz uns prints dele enquanto detecta que vai entender e ficar mais claro!! tipo: print("Boxes", boxes) print("Track_ids", track_ids) Valeuuuuuuuuuuuu
consigo fazer isso para detecção de rosto e reconhecimento facil? no caso, quero sabem quem esta frequentando a minha empresa, e como que seria o processo? um modelo de deteção facil e outro para classificação?
Consegue sim!! É exatamente isso que se faz em geral!! O primeiro acha o rosto e recorta da imagem e depois manda para um de reconhecimento!! Porém essa parte de reconhecimento é mais específica!! Eu acredito que hoje, fazendo uma boa pesquisa, deve ter algo pronto já que treina reconhecer!! E deve ter empresa que presta esse serviço em que vc envia uma imagem e ele reconhece quem é baseado em um treino!! Valeuuuuuuuuuu
Aeeeeeee Estudante!! Eu também!! A V5 ainda continua sendo atualizada!! É igual o pessoal que joga Mario World até hoje! rsrs Sempre tem a versão que populariza que nem sempre é a mais recente!! Por exemplo, eu uso até hoje o MakeSense porque acho mais simples e gratuito!! E agora na V8 ficou tão fácil de usar que a tela ficou muito mais limpa! E dá para fazer coisas mais avançadas!! Uhuuuuuuuuu!!
gostei mt dessa V8 tambem, vou tentar fazer os meus bots com ela kkkkkk quero tentar fazer reconhecer uma imagem "parada" na tela e quando eu me mover no jogo ele localize essa imagem uma coisa que ainda não aprendi a fazer, essas box por exemplo são geradas em uma nova "janela" que copia a imagem do jogo por exempo... existe alguma forma dela localizar e curcular na janela do proprio jogo? como se fosse uma janela fake de fundo transparente ou algo assim
Acredito que dá sim!! Eu já fiz muito tempo atrás uma janela sem bordas e fundo transparente com opencv muito tempo atrás!! Seria como fazer uma janela em cima do jogo e não printar a imagem, só as boxes!!
@@inteligenciamilgrau vou procurar sobre isso, parece ineressante e provavelmente com menos uso de processador (acredito pq não precisa clonar a imagem em uma nova "janela")
Bpa noite! O meu esta dando erro no primeiro pip install ultralytics Começa a baixar porém no meio do download aparece ERROR: THESE PACKAGES DO NOT MATCH THE HASHES FROM THE REQUIREMENTS FILE if you have updated the package version, please update the hashes. otherwise, examine the package contents carefully; someone may have tampered with then.
Faaaaala Adryan!! Eu nunca peguei este erro!! Veja se a versão do python está ou muito antiga ou muito nova!! No vídeo se não me engano usei a 3.10!! E tenta instalar em um novo environment! Parece ser algum conflito dos pacotes do PIP!! Jogar no chatgpt que ele vai te mostrar alguns passos possíveis! Mas fica tranquilo que aparentemente é algum detalhe da instalação só, não tem a ver com o código!! Valeuuuuuuuuuuu!!
Exatamente!! A V8 é perfeita para robótica!! Desde a versão 6, segundo o próprio desenvolvedor, empresas de robótica autônoma estão usando a Yolo!! Uhuuuuuuuuuu
Fantastico! Será que, seria possível usar isto apenas para detectar imagens ou seja, igual fez no "treinamento"? Quero analisar fotos ao invés de Vídeo de uma cam, seria este meu produto final! Desde já obrigado e parabéns pelo conteudo!
Faaaaala Diogo!! É possível sim!! A análise do vídeo é ler imagem por imagem e fazer a detecção a cada frame!! No seu caso vai ser mais simples, vai mandar uma imagem e fazer a detecção sem precisar ficar fazendo loop!! Dá sim!! Valeuuuuuuuuuu
@@inteligenciamilgrau Top, vou me aventurar nisto, e logo volto aqui para te dar noticias, obrigado por partilhar seu conhecimento e com isto inspirar novas idéias! abraço!
muito bom conteudo! parabéns! vc pode me dar uma dica para essa minha situacao: preciso identificar quando um gato está comendo, é justo eu usar além de fotos de gato comendo, mas também de gatos que não estão comendo? valeu!
Faaala Vinícius!! Use imagens do gato sem comer sim!! Isso vai ajudar a rede a saber com mais precisão o que é o que não é!! Eu diria para você o seguinte projeto!! O primeiro reconhece o gato apenas!! Quando tiver um gato na cena, você passa a segunda rede que detecta se ele está comendo ou não!! E você pode também definir um critério de quantos frames seguidos ou por segundo do gato comendo que você quer considerar que ele está de fato comendo!! Vamos supor que ele só cheirou a comida mas não comeu!! Ou que a detecção está com ruído e só pegou alguns frames dele comendo e outros passaram sem detectar!! Já vai pensando nisso!! Valeuuuuuuuuu
@@inteligenciamilgrau e sobre passar uma segunda rede, isso é muito dificil? tem video no canal sobre? ou vc me recomenda alguma documentacao sobre isso
@@inteligenciamilgrau muito obrigado pela dica! é valido eu utilizar datasets de gatos que já existem na internet(exemplo "Cat dataset" no site da kaggle)? e me preocupar em apenas treinar sobre "gatos comendo"?
É bem simples!! Para fazer isso, o programa captura uma imagem da camera, e ele carrega o modelo de reconhecimento em uma variavel e busca os resultados. No código de exemplo que deixei na linha 22 ele carrega o modelo com nome "model" ... se você tiver mais de um, é só colocar na linha 23 um "model2 = YOLO("nome_do_modelo_2.pt"!! Na linha 33 (seguindo) ou na linha 35 ele usa o "model" e pega um resultado!! Se tiver um gato, você faz um comando semelhante usando o "model2"!! Pede pro chatgpt montar o código que ele consegue!! Pode inclusive colar essas instruções aqui que falei e o código de exemplo que ele já vai fazer sozinho e ainda vai explicar!! Valeuuuuuu Código exemplo: github.com/inteligenciamilgrau/treinando_yolov8/blob/main/detectar_usando_webcam.py
Pode usar datasets prontos sim!! Porém eu começaria fazendo os primeiros testes com fotos feitas em casa mesmo!! Testa usar esse outro método aqui, veja o que acha: ruclips.net/video/mYP_KHHcclI/видео.html Ou nesse vídeo aqui: ruclips.net/video/PN8U0Q2CoaE/видео.html
Eu estou começando a postar conteudo exclusivo pros membros do nível Aprendiz de IA!! Aparece lá que faço já faço uma live específica de Yolo avançado!! Valeuuuuuuuuuuuuu
Faaaaaaala Esdras!! Eu tinha feito uma série inteira de Among! Mas não deu certo! kkkkkk foram os vídeos menos vistos do canal! Até hoje não entendo!! Acho que deve ter algum vídeo antigo de Among!!
Teria como criar uma ia em que ela faria o treino do Yolo?, como se a ia fosse fazer a pesquisa da imagem para saber oq é , enviá-la para o yolo e ir treinando ele automaticamente
Faaaala Matheus!! É possível sim!! Vai tudo depender das suas habilidades de programação e esforço!! Vai precisar de um hardware bom e bastante paciência até começar a virem os resultados!! Valeuuuuuuuuuuuuuuuuuuuuuuuu
Muito bom o video! bem legal. Estou iniciando meus estudos nesse modelo e estou aplicando em uma camera via rtsp, porem ao abrir a imagem da camera o yolo detecta muitas coisas, muitas... treinei o meu modelo e aparentemente esta bom. ja tentei alterar alguns parametros tambem. mas nao consegui solucionar meu problema. consegue me ajudar ?
Faaaala André!! A solução mais rápida é filtrar o "probs" que diz qual o nível de certeza que o modelo tem da predição!! Porém a solução específica para seu programa pode estar em muitos pontos!! Os dados precisam estar balanceados (bastante exemplos para cada classe), o treinamento precisa estar baixando bem as medidas de "loss" que é o erro!!! Tenta integrar com o TensorBoard que você vai conseguir visualizar a cada treinamento se ele está melhorando!! Dependendo do cenário é difícil mesmo fazer um bom treinamento!! Valeuuuuuuu
Faaaaaala Duske!! Não tem tratamento não!! São as fotos originais mesmo!! Em alguns casos pode ser que algum tratamento seja necessário, mas a deep learning no geral "filtra" por si só o essencial!! Isso varia bastante!! A área de visão computacional é bem complexa!! Mas nesses casos do vídeo, foi a imagem da tela mesmo!! Valeuuuuuuu
Legal... Mais eu acho q seria interessante um vídeo que tu faz isso dez de o começo... É mais fácil de aprender tipo o curso em vídeo de python ele faz passo a passo... Por algum motivo fica mais fácil de aprender
Faaaaaala Everton!! Eu fiz uma série uma época jogando DOOM e depois Among US, mas ela não deu muito certo!! rsrsr Aí acabei não fazendo mais nada sobre games!! Vamos ver se surge alguma coisa interessante!
Exato!! Ficou um bonus pros membros!! Nessa série eu mostrei o que estava fazendo, mas não fui muito adiante! Eu acredito que o principal foi esse treinamento que mostrei neste vídeo! E lá tem os perrengues que era fazer o jogo rolar!
Adorei o vídeo, muito bem explicado. Parabéns! Mas estou com dificuldade em uma parte: na hora q rodo o código, ele fala que não está achando o arquivo .yaml, poderia me ajudar?
Oi Aline!! Tudo bem? Eu coloquei um código de exemplo e vou deixar o link!! Ali tem um arquivo que chama among.yaml !! Você pode usar ele como exemplo para criar o seu!! Dá uma olhada: github.com/inteligenciamilgrau/treinando_yolov8
Faala Shiryu!! Esse código faz a detecção!! A navegação, você faz separado com base nos dados da detecção!! Isso porque tem muitas técnicas diferentes para conseguir passear pelo mapa!! Tem que ir dando os passos aos poucos e aprendendo! Valeuuuuuuuu
Oloco... Tô estudando react native e tô tentando por inteligência artificial no meu app apesar do vídeo ser em python vou tentar conversar pra reactnative
Boaaaa!! Se precisar, aqui eles explicam como rodar com docker: docs.ultralytics.com/quickstart/#install-ultralytics Você pode fazer o treino no PC normal usando python e depois carregar o arquivo com o modelo e os pesos no app! E se precisar criar um microserviço, usa FastAPI do python (ou Flask ou Django)
Consegue me dizer se essa mesma aplicação , consigo usar na indústria para detectar caixas abertas e fechadas na esteira? usando câmera basler via Cabo lan? se sim eu terei apenas que editar o código para abrir a câmera da basler no invés da principal , mas o código o mesmo, correto?
Certeza que dá!! Você precisa conseguir a imagem da câmera via Python primeiro!! Depois disso o processo é o mesmo!! Essa câmera mais diferentes é bem comum ter que fazer algumas conversões dos pixels para trabalhar no python antes!! Mandaver!! Valeuuuuuuu
Os algoritmos de deep learning são feitos para detectar o objeto independente de cor! Porém, se uma cor específica começar a dar erro, inclua exemplo dessa cor no treino e treine de novo!! Valeuuuuuuuu
Quando vou testar ele apresenta um erro durante o treinamento, o erro é: WARNING ⚠ no labels found in detect set, can not compute metrics without labels Epoch GPU_mem box_loss cls_loss dfl_loss Instances Size 28/30 0G 0 67.23 0 0 640: 100%|██████████| 1/1 [00:05
Cara eu não sei porque qunado eu vou treianr o meu da erro "Parece que o erro ocorreu porque o operador torchvision::nms (Non-Maximum Suppression) não está disponível para a CPU no seu ambiente atual. Esse operador é necessário para o processo de validação da detecção de objetos no treinamento com o YOLOv8. Aqui estão algumas opções para corrigir esse erro:" mesmo assim não vai eu não sei o que ouve
@@Flatis_ Em geral, lá no fim do texto do erro, nas ultimas linhas que tem escrito o que houve!! A parte de cima é um rastreio dos arquivos até chegar no erro
@@inteligenciamilgrau Acho que então é isto: "from tensorflow.python.util._pywrap_checkpoint_reader import CheckpointReader SystemError: initialization of _pywrap_checkpoint_reader raised unreported exception"
Faaala Antonio!! Verificou se tem exemplos suficientes de cada classe que está treinando? Tenta isolar apenas duas classes para testar!! E que elas tenham números semelhantes de exemplos!! Veja se isso ajuda!! Valeuuuuuuuu
olá eu tenho um modelo mais é yolov 5 mais o problema é que só detecta quando esta próximo quando vou mim afastando um pouco para de detectar lembrado que é no fortnite se personagem pula também não detecta, se tiver de perto e personagem parado funciona que é uma beleza mais se vou mim afastando e a pessoa pula para de detectar ai detecta quando esta no chão como posso resolver isso ??
Faaala!! Você precisa aumentar a quantidade de exemplos nos dados de treino de todos os casos que ele está errando!! Colocar mais vezes os jogadores pulando, mais exemplos de personagens mais distantes!! Isso deve melhorar a qualidade!! E também, caso tenha muitos exemplos "parecidos" ou "repetidos", vai fazer a rede ficar viciada nos exemplos mais fáceis!! É preciso balancear os dados!! Valeuuuuuuuuuuuuuuu
@@inteligenciamilgrau ok wlw vou fazer isso, agora é possível esse problema ser por que uso cpu e gpu amd , pois pessoas que usa o mesmo aimbot que eu só que com gpu nvidia e o cuda gpu ativado não relatou esse problema.
@@inteligenciamilgrau Obrigado, posso usar o google colab pra usar o cód. poderia fazer um vídeo mostrando como aplicar a IA para o Agro, seria interessante.
Boaaaa!! Obrigadão pela sugestão!! No Colab eu não testei, mas tem que funcionar sim!! Talvez fique um pouco lendo se usar na versão gratuita, mas colocando umas TPUs ali vai que é um jato!! Valeuuuuuuuuuuuuuu
Faaaaaaala Feliphe!! Para fazer com webcam, você pode usar um programa comum que abre a WebCam e tira as fotos como o "Camera" do Windows!! E depois o procedimento é igual o do vídeo!! Na hora de fazer a detecção, abre pelo python!!! Uhuuuuuuu!! Qualquer dúvida é só perguntar!! Valeuuuuuuuuuuuuuuuu
Como posso conetar uma camera de segurança para identificar parentes meus quando chegarem no meu portão? Ex: minha mae, pai, irmãos.. abraço cara, já dei like e me inscrevi aqui!
Faaaaala Guilherme, tudo bem? Uma dúvida, quando vc usa o modelo padrão e coloca só uma pessoa, mesmo nesse caso ela não está detectando a pessoa? iluminação está ok? Tudo certinho? Valeuuuuuuuuuu
Primeiro ponto eu tirei fotos no celular passei para o pc e fiz todo processo igual no video, porem no momento de treinar , quando rodo o codigo de treino , ele da esse erro: PS C:\Users\adrie\OneDrive\Documentos\VisãoCOMP> & C:/Users/adrie/AppData/Local/Microsoft/WindowsApps/python3.11.exe c:/Users/adrie/OneDrive/Documentos/VisãoCOMP/train_among_v8.py Traceback (most recent call last): File "c:\Users\adrie\OneDrive\Documentos\VisãoCOMP\train_among_v8.py", line 1, in from ultralytics import YOLO File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\__init__.py", line 5, in from ultralytics.hub import checks File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\hub\__init__.py", line 10, in from ultralytics.hub.auth import Auth File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\hub\auth.py", line 5, in from ultralytics.hub.utils import HUB_API_ROOT, request_with_credentials File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\hub\utils.py", line 10, in from ultralytics.yolo.utils import DEFAULT_CONFIG_DICT, LOGGER, RANK, SETTINGS, TryExcept, colorstr, emojis File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\yolo\__init__.py", line 3, in from . import v8 File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\yolo\v8\__init__.py", line 5, in from ultralytics.yolo.v8 import classify, detect, segment File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\yolo\v8\classify\__init__.py", line 3, in from ultralytics.yolo.v8.classify.predict import ClassificationPredictor, predict File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\yolo\v8\classify\predict.py", line 4, in import torch File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\torch\__init__.py", line 141, in raise err OSError: [WinError 126] Não foi possível encontrar o módulo especificado. Error loading "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\torch\lib\shm.dll" or one of its dependencies. porem instalei todas bibliotecas certinho o chat gpt diz que é problema na biblioteca torch , mas instalei , o que acha?
@@Adriel_Lobo Aparentemente os arquivos foram instalados em um diretório provisório, um cache! E por alguma razão, pode ser um simples reiniciar do computador, ele limpou o cache e a instalação sumiu! Veja se faz sentido isso!! Valeuuuu
Fiz o mapeamento de 8 imagens bem simples, mudei no YML e no labels os nomes "repositor e caixa (do jogo makert simulator)", treinei certinho e olhei a curva MAS NÃO DEU CERTO :(
8 imagens é muito pouco!! Pode colocar bastante! 100, 200 pra mais!! Coloca pelo menos duas classes de objetos para reconhecer e umas 50 a 100 fotos de cada!! Isso vai resolver!! Valeuuuuuuuuuuu
O meu treino está falhando, depois do AMP recebo essa mensagem "UserWarning: Plan failed with a cudnnException: CUDNN_BACKEND_EXECUTION_PLAN_DESCRIPTOR: cudnnFinalize Descriptor Failed cudnn_status: CUDNN_STATUS_NOT_SUPPORTED (Triggered internally at ..\aten\src\ATen ative\cudnn\Conv_v8.cpp:919.)" 😕, alguém poderia me ajudar?
Faaaala Samuel!! Tenta diminuir o tamanho do Batch para 1 ou 2! Se resolver, vai aumentando para 4, 8, 16 até dar erro de novo que você vai usar o hardware no que ele suporta! Se não der, tenta instalar de novo o PyTorch com uma versão diferente de Cuda! Valeuuuuuu
Faaaaala Guilherme, tudo bem? Uma dúvida, quando vc usa o modelo padrão e coloca só uma pessoa, mesmo nesse caso ela não está detectando a pessoa? iluminação está ok? Tudo certinho? Valeuuuuuuuuuu
Legal, estou trabalhando em um projeto para proteger meu gramado dos cachorros. A ideia é integrar o YOLO ou o OpenCV a uma câmera Intelbras, em tempo real, utilizando um filtro para identificar apenas cachorros. Quando a detecção ocorrer, pretendo acionar um dispositivo Sonoff, que, por sua vez, ativará o irrigador do jardim. Estou enfrentando dois desafios: o primeiro é integrar o endereço IP do canal da câmera Intelbras, e o segundo é criar um mecanismo para enviar um sinal para o relé do Sonoff assim que a detecção de cachorros acontecer.
Faaaaala The Vier!! É bem possível fazer isso!! Primeiro, para a câmera da Intelbras você pode usar o protocolo RTSP que ensino nesse vídeo aqui: ruclips.net/video/bHOvVuBFAGI/видео.html
Dependendo do modelo da câmera, mudam alguns detalhes, mas o pessoal da Intelbras ajuda no whats! Já precisei várias vezes, e sempre ajudaram!
A segunda etapa é que o SonOFF é um ESP8266!! Você pode regravar ele e fazer um programa personalizado (isso retirar o programa original e não tem como voltar)!!
Basicamente você vai ler um frame da câmera usando OpenCV via RTSP que é, na prática, colocar a string com o endereço da câmera no openCV, para cada frame detectar os cachorros (que na versão nativa da YOLO já detecta) e quando detectar, mandar via rede o comando para o ESP8266!!
Uma coisa que eu nunca fiz, mas sei que dá para fazer, é enviar comandos para o Sonoff sem regravar o esp!! Isso é possível, mas nunca fiz! Valeuuuuuuuuuuuu, depois diz se deu certo!
pow fiquei interessado, se puder compartilhar o cód. pra comunidade ajudar.
@@inteligenciamilgrau fritei a mente lendo esse comentário precisa de tudo isso mesmo?
@@arthurmemories4611 Dependendo do que for fazer precisa! rsrs Valeuuuu
Meu que aula! Melhor que muito curso pago, aprende um pouco de estatística e muita programação. Perfeito!!! Parabéns!!!
Faaaala Henrique! Uhuuuuu, que ótimo que gostou! Valeuuuuuuuuuuuuuuuuuuuuuuuuuuuu
Meu amigo, eu tiro o chapéu pra você. Quando o cara tem didática é outra história. Já vi muito guia de programação que o cara fica falando as coisas como se fosse óbvio, sendo que nem sempre é óbvio pra gente. A sua comparação com o vestibular foi sensacional.
Valeuuuuuuu Mateus!! Eu que agradeço demais!! Obrigadão!!
Muito bom!!! Objetivo e com muito conhecimento!
Faaaaaaaala Diego!! Obrigadão demais pelo comentário!!! Esse vídeo foi muito bom de fazer!! Valeuuuuuuuuuuuuuuuuuuuuuuu
Muito interessante esse processo! Quem sabe, sabe! Excelente video!! Concerteza vale o Like!
Uhuuuuuuuuuuuuu, valeuuuuu ghostnight
Tinha parado de assistir os vídeos porque eu tava sem tempo. Agora tenho tempo, vou assistir todos.
Aeeeeeee Esdras!! Partiu maratonar!! Esse da YoloV8 é muito útil!! Valeuuuuuuuuuuuu
Muito foda e o jeito rapido de seguir e dar conteudo me prendeu show cara
Valeuuuuuuu Vini!! Obrigadãoo!!!
Seus videos são incríveis.... Muito obrigado!!!!
Valeuuuuuuuuuuuuuuuuu Douglas!! Fico feliz demais em ler seu comentário!! Eu que agradeço!!! Uhuuuuuuu
topzera demais! segura essa inscrição !!
Valeeeeeeu Elias!! Obrigadão!!
As universidades proecisam urgente integrar isso (esse curso) nas suas grades e gerar aula de projeto, sensacional.
Exatamente!! Quanto mais mão na massa, melhor!! Concordo!! Valeuuuuuuuu
Explica direitinho man parabens
Uhuuuuuuuuuuuu!! Valeu Maguiiiiiiiiiiiiii!! Você já usa visão computacional em projetos?
Caraca que dahora, sou dev e estou cursando ciência de dados, mas quero aprender sobre visão computacional e achei esse seu vídeo muito dahora.
Boaaaaa Karlos!! Aqui você vai pegar o jeito como as coisas funcionam e vai ajudar demais quando for estudar os detalhes!! Valeuuuuuuuuuuuuu
MEU DEUS, QUE COISA BELA.
Uhuuuuuuuuuuuuu, é um mundo cheio de novidades
Muito bom, muito bom mesmo. Tava a meses procurando algo assim, finalmente achei o seu canal!
Valeuuuu
Pelo erro, o arquivo among.yaml não existe!! Talvez esteja em um diretório diferente do que ele buscou!! Valeuuuuuuuuuuuuuuu
Usa essas variáveis:
boxes = result.boxes.xywh.cpu()
track_ids = result.boxes.id.int().cpu().tolist()
Boxes tem as coordenadas XY (origem do quadradinho) e WH (largura e altura do quadradinho) de cada detecção!! E o track_id tem qual objeto foi detectado!! Então se vc quiser saber se detectou um objeto, faz um "if" no track_id!! E se quiser saber onde o objeto está na tela, vai no boxes!! Faz uns prints dele enquanto detecta que vai entender e ficar mais claro!! tipo:
print("Boxes", boxes)
print("Track_ids", track_ids)
Valeuuuuuuuuuuuu
consigo fazer isso para detecção de rosto e reconhecimento facil? no caso, quero sabem quem esta frequentando a minha empresa, e como que seria o processo? um modelo de deteção facil e outro para classificação?
Consegue sim!! É exatamente isso que se faz em geral!! O primeiro acha o rosto e recorta da imagem e depois manda para um de reconhecimento!! Porém essa parte de reconhecimento é mais específica!! Eu acredito que hoje, fazendo uma boa pesquisa, deve ter algo pronto já que treina reconhecer!! E deve ter empresa que presta esse serviço em que vc envia uma imagem e ele reconhece quem é baseado em um treino!! Valeuuuuuuuuuu
Muito bom
Uso yolov5 pq foi oq tinha visto antes, nos seus vídeos msm kkkkkkk
Aeeeeeee Estudante!! Eu também!! A V5 ainda continua sendo atualizada!! É igual o pessoal que joga Mario World até hoje! rsrs Sempre tem a versão que populariza que nem sempre é a mais recente!! Por exemplo, eu uso até hoje o MakeSense porque acho mais simples e gratuito!! E agora na V8 ficou tão fácil de usar que a tela ficou muito mais limpa! E dá para fazer coisas mais avançadas!! Uhuuuuuuuuu!!
gostei mt dessa V8 tambem, vou tentar fazer os meus bots com ela kkkkkk
quero tentar fazer reconhecer uma imagem "parada" na tela e quando eu me mover no jogo ele localize essa imagem
uma coisa que ainda não aprendi a fazer, essas box por exemplo são geradas em uma nova "janela" que copia a imagem do jogo por exempo...
existe alguma forma dela localizar e curcular na janela do proprio jogo? como se fosse uma janela fake de fundo transparente ou algo assim
Acredito que dá sim!! Eu já fiz muito tempo atrás uma janela sem bordas e fundo transparente com opencv muito tempo atrás!! Seria como fazer uma janela em cima do jogo e não printar a imagem, só as boxes!!
@@inteligenciamilgrau vou procurar sobre isso, parece ineressante e provavelmente com menos uso de processador (acredito pq não precisa clonar a imagem em uma nova "janela")
alguem consegue me ajudar a fazer pelo menos o yolov5 rodar ? É tanto erro que to ficando maluco
Bpa noite! O meu esta dando erro no primeiro pip install ultralytics
Começa a baixar porém no meio do download aparece
ERROR: THESE PACKAGES DO NOT MATCH THE HASHES FROM THE REQUIREMENTS FILE if you have updated the package version, please update the hashes. otherwise, examine the package contents carefully; someone may have tampered with then.
Faaaaala Adryan!! Eu nunca peguei este erro!! Veja se a versão do python está ou muito antiga ou muito nova!! No vídeo se não me engano usei a 3.10!! E tenta instalar em um novo environment! Parece ser algum conflito dos pacotes do PIP!! Jogar no chatgpt que ele vai te mostrar alguns passos possíveis! Mas fica tranquilo que aparentemente é algum detalhe da instalação só, não tem a ver com o código!! Valeuuuuuuuuuuu!!
caramba... parece muito facil. Se a pessoa tiver uma ideia e participar de uma competição de robotica... vai ganhar
Exatamente!! A V8 é perfeita para robótica!! Desde a versão 6, segundo o próprio desenvolvedor, empresas de robótica autônoma estão usando a Yolo!! Uhuuuuuuuuuu
Fantastico! Será que, seria possível usar isto apenas para detectar imagens ou seja, igual fez no "treinamento"? Quero analisar fotos ao invés de Vídeo de uma cam, seria este meu produto final! Desde já obrigado e parabéns pelo conteudo!
Faaaaala Diogo!! É possível sim!! A análise do vídeo é ler imagem por imagem e fazer a detecção a cada frame!! No seu caso vai ser mais simples, vai mandar uma imagem e fazer a detecção sem precisar ficar fazendo loop!! Dá sim!! Valeuuuuuuuuuu
@@inteligenciamilgrau Top, vou me aventurar nisto, e logo volto aqui para te dar noticias, obrigado por partilhar seu conhecimento e com isto inspirar novas idéias! abraço!
bom demais!
Uhuuuuuu!! Valeuuuuuuuuuu
muito bom conteudo! parabéns! vc pode me dar uma dica para essa minha situacao: preciso identificar quando um gato está comendo, é justo eu usar além de fotos de gato comendo, mas também de gatos que não estão comendo? valeu!
Faaala Vinícius!! Use imagens do gato sem comer sim!! Isso vai ajudar a rede a saber com mais precisão o que é o que não é!! Eu diria para você o seguinte projeto!! O primeiro reconhece o gato apenas!! Quando tiver um gato na cena, você passa a segunda rede que detecta se ele está comendo ou não!! E você pode também definir um critério de quantos frames seguidos ou por segundo do gato comendo que você quer considerar que ele está de fato comendo!! Vamos supor que ele só cheirou a comida mas não comeu!! Ou que a detecção está com ruído e só pegou alguns frames dele comendo e outros passaram sem detectar!! Já vai pensando nisso!! Valeuuuuuuuuu
@@inteligenciamilgrau e sobre passar uma segunda rede, isso é muito dificil? tem video no canal sobre? ou vc me recomenda alguma documentacao sobre isso
@@inteligenciamilgrau muito obrigado pela dica! é valido eu utilizar datasets de gatos que já existem na internet(exemplo "Cat dataset" no site da kaggle)? e me preocupar em apenas treinar sobre "gatos comendo"?
É bem simples!! Para fazer isso, o programa captura uma imagem da camera, e ele carrega o modelo de reconhecimento em uma variavel e busca os resultados.
No código de exemplo que deixei na linha 22 ele carrega o modelo com nome "model" ... se você tiver mais de um, é só colocar na linha 23 um "model2 = YOLO("nome_do_modelo_2.pt"!!
Na linha 33 (seguindo) ou na linha 35 ele usa o "model" e pega um resultado!!
Se tiver um gato, você faz um comando semelhante usando o "model2"!!
Pede pro chatgpt montar o código que ele consegue!! Pode inclusive colar essas instruções aqui que falei e o código de exemplo que ele já vai fazer sozinho e ainda vai explicar!!
Valeuuuuuu
Código exemplo: github.com/inteligenciamilgrau/treinando_yolov8/blob/main/detectar_usando_webcam.py
Pode usar datasets prontos sim!! Porém eu começaria fazendo os primeiros testes com fotos feitas em casa mesmo!! Testa usar esse outro método aqui, veja o que acha:
ruclips.net/video/mYP_KHHcclI/видео.html
Ou nesse vídeo aqui:
ruclips.net/video/PN8U0Q2CoaE/видео.html
Essa sua aula ta muito boa fera!!! Queria um curso seu pra mim aprender sobre o yolov8. Caso vc n tenha um curso. poderia recomendar algum???
Eu estou começando a postar conteudo exclusivo pros membros do nível Aprendiz de IA!! Aparece lá que faço já faço uma live específica de Yolo avançado!! Valeuuuuuuuuuuuuu
Poderia fazer um vídeo utilizando essas informações e tomando decisões no jogo?
Faaaaaaala Esdras!! Eu tinha feito uma série inteira de Among! Mas não deu certo! kkkkkk foram os vídeos menos vistos do canal! Até hoje não entendo!! Acho que deve ter algum vídeo antigo de Among!!
Teria como criar uma ia em que ela faria o treino do Yolo?, como se a ia fosse fazer a pesquisa da imagem para saber oq é , enviá-la para o yolo e ir treinando ele automaticamente
Faaaala Matheus!! É possível sim!! Vai tudo depender das suas habilidades de programação e esforço!! Vai precisar de um hardware bom e bastante paciência até começar a virem os resultados!! Valeuuuuuuuuuuuuuuuuuuuuuuuu
Muito bom o video! bem legal. Estou iniciando meus estudos nesse modelo e estou aplicando em uma camera via rtsp, porem ao abrir a imagem da camera o yolo detecta muitas coisas, muitas... treinei o meu modelo e aparentemente esta bom. ja tentei alterar alguns parametros tambem. mas nao consegui solucionar meu problema. consegue me ajudar ?
Faaaala André!! A solução mais rápida é filtrar o "probs" que diz qual o nível de certeza que o modelo tem da predição!! Porém a solução específica para seu programa pode estar em muitos pontos!! Os dados precisam estar balanceados (bastante exemplos para cada classe), o treinamento precisa estar baixando bem as medidas de "loss" que é o erro!!! Tenta integrar com o TensorBoard que você vai conseguir visualizar a cada treinamento se ele está melhorando!! Dependendo do cenário é difícil mesmo fazer um bom treinamento!! Valeuuuuuuu
Vou tentar para ver se resolve, a alguma configuração para tratar a imagem da câmera do vídeo antes de aplicar o modelo ?
Opa cara muito legal seu video, sou meio leigo quanto a esse assunto , mas esse codigo possui tratamento de imagem ?
Faaaaaala Duske!! Não tem tratamento não!! São as fotos originais mesmo!! Em alguns casos pode ser que algum tratamento seja necessário, mas a deep learning no geral "filtra" por si só o essencial!! Isso varia bastante!! A área de visão computacional é bem complexa!! Mas nesses casos do vídeo, foi a imagem da tela mesmo!! Valeuuuuuuu
Olá, ótimo vídeo! Uma pergunta: qual versão do Python você está usando neste vídeo?
Muito obrigado!
Faaala Julian!! Em geral uso o 3.10 por conta da compatibilidade, mesmo tendo versões mais novas!! Valeuuuuuuuuuu
Legal... Mais eu acho q seria interessante um vídeo que tu faz isso dez de o começo... É mais fácil de aprender tipo o curso em vídeo de python ele faz passo a passo... Por algum motivo fica mais fácil de aprender
Interessante!!
Amigo você tem algum curso que ensine a criar códigos para interagir com jogos? Ou algum video aqui no canal que eu não tenha achado rsrs
Faaaaaala Everton!! Eu fiz uma série uma época jogando DOOM e depois Among US, mas ela não deu muito certo!! rsrsr Aí acabei não fazendo mais nada sobre games!! Vamos ver se surge alguma coisa interessante!
@@inteligenciamilgrau vi agora que é para membros rsrs, vou dar uma olhada.
Exato!! Ficou um bonus pros membros!! Nessa série eu mostrei o que estava fazendo, mas não fui muito adiante! Eu acredito que o principal foi esse treinamento que mostrei neste vídeo! E lá tem os perrengues que era fazer o jogo rolar!
Adorei o vídeo, muito bem explicado. Parabéns! Mas estou com dificuldade em uma parte: na hora q rodo o código, ele fala que não está achando o arquivo .yaml, poderia me ajudar?
Oi Aline!! Tudo bem? Eu coloquei um código de exemplo e vou deixar o link!! Ali tem um arquivo que chama among.yaml !! Você pode usar ele como exemplo para criar o seu!! Dá uma olhada:
github.com/inteligenciamilgrau/treinando_yolov8
Utilizando essa técnica, por exemplo, dá pra fazer com que o personagem se mexa sozinho para evitar as mesas?
Faala Shiryu!! Esse código faz a detecção!! A navegação, você faz separado com base nos dados da detecção!! Isso porque tem muitas técnicas diferentes para conseguir passear pelo mapa!! Tem que ir dando os passos aos poucos e aprendendo! Valeuuuuuuuu
@@inteligenciamilgrau Vlw, meu kiriiduuuu. Excelente conteúdo :D
Oloco... Tô estudando react native e tô tentando por inteligência artificial no meu app apesar do vídeo ser em python vou tentar conversar pra reactnative
Boaaaa!! Se precisar, aqui eles explicam como rodar com docker: docs.ultralytics.com/quickstart/#install-ultralytics
Você pode fazer o treino no PC normal usando python e depois carregar o arquivo com o modelo e os pesos no app!
E se precisar criar um microserviço, usa FastAPI do python (ou Flask ou Django)
Aulaaa sensacional, estou tento problema apenas com este arquivo (fbgemm.dll).... sabe como posso resolver??? Grande Abraço
Faaaala Campione!! Tenta instalar o Pytorch com outra versão de Cuda! Pode inclusive testar uma versão anterior que talvez resolva!! Valeuuuuuuuuu
Consegue me dizer se essa mesma aplicação , consigo usar na indústria para detectar caixas abertas e fechadas na esteira? usando câmera basler via Cabo lan? se sim eu terei apenas que editar o código para abrir a câmera da basler no invés da principal , mas o código o mesmo, correto?
Certeza que dá!! Você precisa conseguir a imagem da câmera via Python primeiro!! Depois disso o processo é o mesmo!! Essa câmera mais diferentes é bem comum ter que fazer algumas conversões dos pixels para trabalhar no python antes!! Mandaver!! Valeuuuuuuu
@@inteligenciamilgrau muito obrigado!🤝🙏🙂
FAZ UM TREINAMENTO DE MODELO DE VOZ NATURAL ENSINANDO DO INICIO AO FIM. FORTE ABRAÇO.
Vou ser sincero, essa parte de geração de voz eu vou ter que estudar! Rsrsrs valeuuuuu pela pergunta
adorei!!! conteúdo de ouro
Valeuuuuu
Se a mesa fosse de outra cor, eu teria que criar uma label pra mesa azul e outra pra mesa vermelha?
Os algoritmos de deep learning são feitos para detectar o objeto independente de cor! Porém, se uma cor específica começar a dar erro, inclua exemplo dessa cor no treino e treine de novo!! Valeuuuuuuuu
modifiquei o codigo que exibe somente placa de video da nvidia pra detectar amd através do DirectML
Boaaaaaa! Perfeito!
Quando vou testar ele apresenta um erro durante o treinamento, o erro é: WARNING ⚠ no labels found in detect set, can not compute metrics without labels
Epoch GPU_mem box_loss cls_loss dfl_loss Instances Size
28/30 0G 0 67.23 0 0 640: 100%|██████████| 1/1 [00:05
Veja se não está faltando o arquivo de labels que eu mostro em 8:15!!
Ou se ficou certinho a parte que mostro em 10:22 !!
Valeuuuuuuu
@@inteligenciamilgrau Obrigado, era justamente os labels que estavam sem o mapeamento, tinha baixado o errado
Cara eu não sei porque qunado eu vou treianr o meu da erro "Parece que o erro ocorreu porque o operador torchvision::nms (Non-Maximum Suppression) não está disponível para a CPU no seu ambiente atual. Esse operador é necessário para o processo de validação da detecção de objetos no treinamento com o YOLOv8. Aqui estão algumas opções para corrigir esse erro:" mesmo assim não vai eu não sei o que ouve
Faaaaala Flatis, você tem alguma GPU da Nvidia instalada no PC?
@@inteligenciamilgrauNao
Essa mensagem de erro na verdade é do chat gpt falei para ele explicar. O verdadeiro erro é grande.
@@Flatis_ Em geral, lá no fim do texto do erro, nas ultimas linhas que tem escrito o que houve!! A parte de cima é um rastreio dos arquivos até chegar no erro
@@inteligenciamilgrau Acho que então é isto: "from tensorflow.python.util._pywrap_checkpoint_reader import CheckpointReader
SystemError: initialization of _pywrap_checkpoint_reader raised unreported exception"
O meu está com o box_loss, cls_loss e dfl_loss todos nan, já tentei varias coisas, mas continuam assim. Oq posso fazer?
Faaala Antonio!! Verificou se tem exemplos suficientes de cada classe que está treinando? Tenta isolar apenas duas classes para testar!! E que elas tenham números semelhantes de exemplos!! Veja se isso ajuda!! Valeuuuuuuuu
olá eu tenho um modelo mais é yolov 5 mais o problema é que só detecta quando esta próximo quando vou mim afastando um pouco para de detectar lembrado que é no fortnite se personagem pula também não detecta, se tiver de perto e personagem parado funciona que é uma beleza mais se vou mim afastando e a pessoa pula para de detectar ai detecta quando esta no chão como posso resolver isso ??
Faaala!! Você precisa aumentar a quantidade de exemplos nos dados de treino de todos os casos que ele está errando!! Colocar mais vezes os jogadores pulando, mais exemplos de personagens mais distantes!! Isso deve melhorar a qualidade!! E também, caso tenha muitos exemplos "parecidos" ou "repetidos", vai fazer a rede ficar viciada nos exemplos mais fáceis!! É preciso balancear os dados!! Valeuuuuuuuuuuuuuuu
@@inteligenciamilgrau ok wlw vou fazer isso, agora é possível esse problema ser por que uso cpu e gpu amd , pois pessoas que usa o mesmo aimbot que eu só que com gpu nvidia e o cuda gpu ativado não relatou esse problema.
Boaa
Top D+ parabéns, uma dúvida o jogo abriu quando vc executou o arquivo ou vc teve que rodar o jogo normal?
Faaala Pablo!!! Abre o jogo como se fosse jogar e depois roda a detecção!! Valeuuuuuuuuuuuuuuuuu
@@inteligenciamilgrau Obrigado, posso usar o google colab pra usar o cód. poderia fazer um vídeo mostrando como aplicar a IA para o Agro, seria interessante.
Boaaaa!! Obrigadão pela sugestão!! No Colab eu não testei, mas tem que funcionar sim!! Talvez fique um pouco lendo se usar na versão gratuita, mas colocando umas TPUs ali vai que é um jato!! Valeuuuuuuuuuuuuuu
Gostaria de ver este modelo ser treinado na captura vídeo de uma webcam
Faaaaaaala Feliphe!! Para fazer com webcam, você pode usar um programa comum que abre a WebCam e tira as fotos como o "Camera" do Windows!! E depois o procedimento é igual o do vídeo!! Na hora de fazer a detecção, abre pelo python!!! Uhuuuuuuu!! Qualquer dúvida é só perguntar!! Valeuuuuuuuuuuuuuuuu
Como posso conetar uma camera de segurança para identificar parentes meus quando chegarem no meu portão? Ex: minha mae, pai, irmãos..
abraço cara, já dei like e me inscrevi aqui!
Faaaaala Luis!! Eu explico nesse vídeo aqui:
ruclips.net/video/bHOvVuBFAGI/видео.html
No meu caso, a minha rede treinada tá identificando tudo como background, o que pode ser? Alguém pode me dar algum apoio?
Faaaaala Guilherme, tudo bem? Uma dúvida, quando vc usa o modelo padrão e coloca só uma pessoa, mesmo nesse caso ela não está detectando a pessoa? iluminação está ok? Tudo certinho? Valeuuuuuuuuuu
A pasta de val tem que ter as imagens e os txt? ou só imagens mesmo?
Exatamente!! Imagens e TXT!! Valeuuuuuuuuuuuuuuuuu
boa noite , consigo entrar em contato de alguma forma? preciso de uma ajudinha se for possível
Opaaaaa, pode perguntar!! Se eu souber ajudo sim!! O pessoal pode ajudar também se eu não souber!! Valeuuuuuuuu
Primeiro ponto eu tirei fotos no celular passei para o pc e fiz todo processo igual no video, porem no momento de treinar , quando rodo o codigo de treino , ele da esse erro:
PS C:\Users\adrie\OneDrive\Documentos\VisãoCOMP> & C:/Users/adrie/AppData/Local/Microsoft/WindowsApps/python3.11.exe c:/Users/adrie/OneDrive/Documentos/VisãoCOMP/train_among_v8.py
Traceback (most recent call last):
File "c:\Users\adrie\OneDrive\Documentos\VisãoCOMP\train_among_v8.py", line 1, in
from ultralytics import YOLO
File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\__init__.py", line 5, in
from ultralytics.hub import checks
File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\hub\__init__.py", line 10, in
from ultralytics.hub.auth import Auth
File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\hub\auth.py", line 5, in
from ultralytics.hub.utils import HUB_API_ROOT, request_with_credentials
File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\hub\utils.py", line 10, in
from ultralytics.yolo.utils import DEFAULT_CONFIG_DICT, LOGGER, RANK, SETTINGS, TryExcept, colorstr, emojis
File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\yolo\__init__.py", line 3, in
from . import v8
File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\yolo\v8\__init__.py", line 5, in
from ultralytics.yolo.v8 import classify, detect, segment
File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\yolo\v8\classify\__init__.py", line 3, in
from ultralytics.yolo.v8.classify.predict import ClassificationPredictor, predict
File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\ultralytics\yolo\v8\classify\predict.py", line 4, in
import torch
File "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\torch\__init__.py", line 141, in
raise err
OSError: [WinError 126] Não foi possível encontrar o módulo especificado. Error loading "C:\Users\adrie\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.11_qbz5n2kfra8p0\LocalCache\local-packages\Python311\site-packages\torch\lib\shm.dll" or one of its dependencies.
porem instalei todas bibliotecas certinho o chat gpt diz que é problema na biblioteca torch , mas instalei , o que acha?
@@Adriel_Lobo Aparentemente os arquivos foram instalados em um diretório provisório, um cache! E por alguma razão, pode ser um simples reiniciar do computador, ele limpou o cache e a instalação sumiu! Veja se faz sentido isso!! Valeuuuu
meu makesense não deixa eu selecionar depois de fazer upload das imagens :/
Confere se não tem algum bloqueador de anúncio ativado! Isso pode atrapalhar alguns sites de funcionarem! Valeuuuu
@@inteligenciamilgrau Reiniciei o navegador e deu boa, estou treinando em um game offline aqui pra dar uma testada
Fiz o mapeamento de 8 imagens bem simples, mudei no YML e no labels os nomes "repositor e caixa (do jogo makert simulator)", treinei certinho e olhei a curva MAS NÃO DEU CERTO :(
8 imagens é muito pouco!! Pode colocar bastante! 100, 200 pra mais!! Coloca pelo menos duas classes de objetos para reconhecer e umas 50 a 100 fotos de cada!! Isso vai resolver!! Valeuuuuuuuuuuu
Sem palvras ´para descrever seus videos top é muito pouco
Uhuuuuuuuu, valeu Paulo!!!!!!!! Esse foi o vídeo mais pedido de todos os tempos!
Desistiu da aula 2 ?
Não desisti não! Mas coloquei eles em segundo plano por um momento!! Estou avaliando quando voltar! Valeuuuuu Tokyo!!
😮
😲😲
Ô Didiiiiiii
Aeeeeeeeeeeee Dan!! Valeuuuuuuuuuuuuuu!!!!!
@@inteligenciamilgrau funcionou direitinho man!!! Obrigadoo
Boaaaaaaa!! Feliz de saber que deu certo!! Uhuuuuuuuuu
O meu treino está falhando, depois do AMP recebo essa mensagem "UserWarning: Plan failed with a cudnnException: CUDNN_BACKEND_EXECUTION_PLAN_DESCRIPTOR: cudnnFinalize Descriptor Failed cudnn_status: CUDNN_STATUS_NOT_SUPPORTED (Triggered internally at ..\aten\src\ATen
ative\cudnn\Conv_v8.cpp:919.)" 😕, alguém poderia me ajudar?
Faaaala Samuel!! Tenta diminuir o tamanho do Batch para 1 ou 2! Se resolver, vai aumentando para 4, 8, 16 até dar erro de novo que você vai usar o hardware no que ele suporta! Se não der, tenta instalar de novo o PyTorch com uma versão diferente de Cuda! Valeuuuuuu
No meu caso a minha rede neural treinada está classificando tudo com background, o que pode ser? Alguém pode me dar algum apoio?
Faaaaala Guilherme, tudo bem? Uma dúvida, quando vc usa o modelo padrão e coloca só uma pessoa, mesmo nesse caso ela não está detectando a pessoa? iluminação está ok? Tudo certinho? Valeuuuuuuuuuu