hola saludos desde Puerto Rico gracias por tomarte el tiempo de que algunos como yo .principiante y con deseos de aprender alguito te agradece como muchos tal esfuerzo.
Parce, soy estudiante de ingeniería electrónica de la UPTC, no sé mucho del tema de programar, pero es un mundo que me llama la atención, además de la automatización. Gracias por compartir sus conocimientos y ayudar a los que queremos aprender!!
Santiago, muy interesante, he tratado de hacerlo con una lata y ha funcionado correctamente. El problema ha sido al intentar hacerlo con 3 objetos diferentes, no he podido hacerlo. El modelo si que lo he logrado hacer bien pero en pycharm creo que algo falla ya que veo la imagen en tiempo real pero no realiza la detección. Podrías hacer un video para ver como hacerlo con más de un objeto? Gracias!
buenas tardes quisiera pedirte un favor, quisiera saber si pudieras facilitarme lo que has estado haciendo con lo de la lata estoy haciendo algo igual pero no me queda ayuda porfa
Santiago, muchas gracias por la calidad del material. Sería posible en videos posteriores hacer un análisis de las métricas para evaluación del proceso de entrenamiento? Muchas gracias.
Fan #1 qué espectacular. Sos el mejor ojalá sigas subiendo este tipo de contenido. Es posible con la detección generar un tipo de salida analógica o digital o tal vez emitir un sonido cuando detecte el objeto en mención
Gracias por los conocimientos impartidos!!! Por favor si me puede ayudar. Que línea de código puedo poner para que pruebe un video de mi pc y no en tiempo real???
Hola! tengo una duda, es posible aplicar este proyecto para una raspberri pi? Esto viene debido a que la librería torch desconozco si pueda ser aplicar en este microprocesador
Hola nuevamente! mira realicé tu proyecto pero al igual que tu tengo demasiado lag en la cámara. Como puedo optimizar esto? Se debe a la cantidad de imágenes validadas que usé? saludos@@AprendeIngenia
Hola amigo cuando ejecuto al final en el entorno virtual sale eso NotImplementedError: cannot instantiate 'PosixPath' on your system cabe mencionar que seguí todos los pasos, agradecería tu respuesta en poder ayudarme para solucionar ello.
Hola, lograste resolver el problema? me sale exactamente lo mismo. Tiene algo que ver con el modelo que uno descarga... pero no se por que no lo detecta. Si supiste que fue, la verdad me seria de mucha ayuda
Seria muy util un video de yolo para segmentación instantanea, tiene numerosas aplicaciones como conteo de leucositos, o cualquier cosa que cuentan en lab clinicos, analisis de semillas o granos de cafe cacao, etc. muchas gracias
Hola una consulta, como podría utilizar el GPU para el codigo final, noto que es algo lento y el procesamiento de imagenes se llevaría a cabo mas rapido en la GPU
Una pregunta, este tambien lo puedo exportar a h5 para usarlo con tensorflow. Js en la web o para subirlo a la web hay que hacerlo con framework de python ?
Una pregunta, en el minuto 14:48 el img en el que pones 640, el bach y las epoch que son? entiendo que las epoch son algun tipo de repeticion o ciclo de entrenamiento con backpropagation, pero lo demas? gracias de antemano
Hola Patxi la explicación de batch y epochs están en el mismo video, y 640 es el redimensionamiento para que todas las imágenes queden con un tamaño estándar
@@AprendeIngenia Pero ese tamaño de imagen debo dárselo yo antes a la imagen? O se ajustará automáticamente? Oye siento preguntarte tanto de verdad, ando algo perdido, gracias por tu paciencia
Pudieras dar un TIP para que el programa en pycharm lo ejecute con la GPU ya que al igual que tu video mi PC usa el CPU y la aplicación corre demasiado lento. Saludos y excelentes videos
Hola santiago, una consulta si mi entorno virtual es gestionado con anaconda con wsl, la ruta del path debe ser la ruta dentro de mi entorno virtual en mi caso algo como /home/nombreUsuaruo/video/model/best.pt, o tendria que ser \\wsl$\Ubuntu\home ombreUsuari/video/model/best.pt ? en mi best.pt es mi modelo entrenado. Gracias de ante mano
Hola, muy práctico y sencilla explicación. Una consulta, ¿alguna forma de entrenar y personalizar la detección de objetos? ¿Cómo hago para detectar los objetos que necesito en distintas ocasiones? Saludos
Hola samuel, puedes hacer el detector con el o los objetos que desees, solo asegurate de crear las carpetas para cada uno de los objetos y etiquetarlos de manera correcta
hola , buen toturial , ero ando siguiendo los pasos y cuano el colab , y busco la carpeta yolov5 no la enuentro y tampoco el archivo coco. en ese caso que se podria hacer
hola buenas sabes que cuando ejecuto el programa a través del CMD de windows no ocurre nada e incluso me manda un error sobre permisos denegados pero no entiendo bien ya que los permisos los tengo todos habilitados
Buenas amigo, he implementado su proyecto pero enfocado a platanos ( si es verde o amarillo) , entrene con 160 imagenes y 40 para val, el proyecto corre, pero al momento de que la camara detecte al platano que pongo en el escritorio, no lo detecta, sin embargo, si de mi celular muestro fotos de platanos a la camara , si lo detecta , que podria ser de que no este detectando el platano que muestro
Hola, gracias por el video un tutorial muy completo, solo quisiera me ayudases a resolver una duda, si yo quisiera mas adelante agregar mas objetos para detectar digamos una moto, como lo añado a la red ya entrenada y a python?
@@AprendeIngenia sería que en train sería crear subcarpeta? Y en python el pt que se descarga se selecciona específicamente ese, si agrego nuevo pt de la red neuronal cómo agrego los nuevos objetos, gracias.
como se realizaria el analisis con imagenes ?, en lugar de la cámara subir imágenes para que la red devuelva la imagen con el rectángulo y el porcentaje
@@AprendeIngenia no, lo que intento es subir una imagen para que sea analizada y me marque en donde se encuentra el objeto, por ejemplo: subir una imagen y que me retorne la imagen con el rectángulo donde se encuentra el objeto y el porcentaje
hola Aprende e Ingenia, una pregunta. Cuando quiero descargar mi modelo, esta todo bien. Pero a la hora de referenciar la ruta del archivo en mi script, no lo reconoce y no carga ni el modelo ni el sistema. Aqui que tengo que hacer?... O alguien que haya tenido el mismo problema que me pueda ayudar porfa
Gracias por el video, y en vez de usar videos, ¿se puede usar imágenes? , pues dentro de la imagen (foto por ejemplo) quiero detectar carros...Agradezco de antemano tu respuesta
Hola me encanta tus vídeos he echo algunos de tus programas código y me ha funcionado Genial!!! Mi pregunta es tiene algún tipo de vídeo o código donde se pueda comunicar a un LiDAR en Python, para detección de objetos Si necesitas más datos me dices Gracias!!!
@@AprendeIngenia Hola , si es cierto ya vi como, crees que sea bueno hacer un punto en medio de xmax y xmin , ymax y ymin y guardarlos en un arreglo para después graficarlo en matplot y que ese sea el rastro del recorrido del objeto
Buenas! tengo una duda, podria correr dos modelos en tiempo real, por ejemplo uno ya predeterminado y otro custom?, analizaria un frame con los dos modelos. Tengo dudas tambien de como generar un yaml para muchas clases custom. Muchas gracias
hola, muy buen trabajo. te queria preguntar al momento de realizar el entrenamiento, se crea un archivo train.cache, el cual me saca un error diciendo que los labels de /content/data/image/train.cache no fueron encontrados..me puedes ayudar gracias.
cuando hago la parte del entrenamiento sale este error: AssertionError: train: No labels found in /content/Data/Images/Train.cache. Ya vi las rutas y estan todas igual a como dice el video. Si puedes ayudarme lo agradeceria
@@ivanhernandezruiz892 si, cámbiale el nombre las carpetas images y labels todo con minúscula, y luego modifica con esa ruta en minúscula el archivo coco. Después no pude hacer andar openCV para abrir la cámara y eso
@@AprendeIngenia Santiago, gracias por tu pronta respuesta. Entonces supongamos que hago el modelo que tienes en este video. Lo guardo y entonces este de aqui lo puedo reemplazar en la linea de codigo que tienes en el otro video que donde esta mov=cv2.create....? Disculpa Santiago, talvez me podrías ayudar con el modelo exacto de matriz led, arduino y voccer que usas en el otro video. Muchas gracias.
@@victorvallejo6735 Para extraer las caracteristicas de tus objetos puedes basarte en este video, tambien nos comunicamos con arduino en este video, solo tendrias que cambiar el servomotor por la alarma: ruclips.net/video/yZ-_oTIV8fc/видео.html
@@AprendeIngenia te agradezco mucho por tomarte a molestia de responderme. Me ayudas con una última cosa, te pregunté por el modelo de matriz led y esas cosas que usas en el otro vídeo. Gracias crack 😅
hola buenas grandioso video, se puede utilizar en el programa una grabación externa, por ejemplo en un parqueadero y detectaría igual ? en este caso si no me equivoco utilizaste la cámara de tu pc
minuto 13:20 te falto mencionar como nosotros podemos saber la cantidad de imagenes en el google colab para hacer el entrenamiento agrego tambien que desde este año 2022 modificaron el archivo custom.yaml y es diferente el codigo al parecer empieza con 0, tambien agrego que es obligatorio agregar el archivo custom.xml al directorio y lo que no me ha gustado que no es en tiempo real como dices en el videos osea si es en tiempo real pero la camara se demora como 5 a 10 segundos en cambiar de imagen que es demasiado lento nose como se podria mejorar esto
@@AprendeIngenia hola gracias por responder, mi idea era entrenar la neurona en el computador y ejecutar la predicción en una rasberry pi pero se que la rasberry tiene poca potencia
Amigo que tal, exclente video. PEro tengo un problema al momento de entrenar las imagenes, sale que no encuentra las imagenes y etiquetas, como puedo solucionarlo ?
bro excelente trabao me encantaria que expicaras sobre los drones si lo haz ocupado con vision artificial tengo unas ideas pero me encantaria que explicaras como lo haces de ello
Excelente video amigo. Una consulta, donde puedo encontrar un dataset ya entrenado para el reconocimiento del entorno?, o simplemente el dataset para reconocimiento del entorno.
Hola Santiago, una consulta, cómo se podría entrenar un modelo para calcular o estimar el volumen de un objeto? por ejemplo, la cantidad de café servida en una taza
Gracias Santiago, por excelentes videos, tengo un inconveniente y es que luego de haber realizado el entrenamiento y voy a revisar las graficas en TensorFlow, me sale el siguiente error: 403. That’s an error. That’s all we know. ¿Sabes que puede ser?
Que hay bro me ayudarias mucho si me respondes estaba usando tu video como guia y me funciono todo bien pero ahora no se si por la ulitma update de yolo ya no me sirve ninguna custom data cada ves que las descargo me manda error solo me sirven las datas viejas que ya tenia no se si tengas alguna idea de que hacer gracia
@@AprendeIngenia Has tratado de realizar una custom data con la nueva update de yolov5 ? cambia el metodo mostrado ? vi que el coconut ahora cambia no se si sea eso
Santiago, Estoy practicando con un fruta en buen estado y otra en mal estado, ¿cómo tendria que hacer ahí ?,tendria que meter todas mis imagenes en una sola carpeta, porque hasta el momento solo me reconoce la etiqueta de mi fruta en buen estado. Gracias de antemano
osea se hace los mismos pasos tal cual solo que van diferentes carpetas osea una para buen estado y otra para mal esrado de la fruta? pero en el codigo no entiendo osea toca indicarlas por aparte? o no?
osea son dos modelos de entreamiento diferentes o es uno solo ? , o debo hcer varias carpetas y en clases colocar 2? una para mal estado yuna para buen estado , gracias por tu respuesta@@AprendeIngenia
Que tan factible podria ser para usar las manos como un mando para jugar algun videojuego?? que tanta potenciagrafica se requiere y que tanto input lag tendria de ser asi?. Saludos, muy buenos videos
Hola! Muchas gracias por el video! Me funciona bastante bien y se que es avaricia pero.. yo hice etiquetas para tres objetos, me gustaria personalizar el recuadro que enmarca mi objeto del color que yo quiera, donde puedo configurar eso? o debo añadir alguna linea con el codigo RGB? Quedo pendiente gracias!
Hola biaani, me alegra que te haya servido, claro que puedes hacerlo cuando extraes el indice de tu objeto colocas diferentes if segun el indice y cambias de color en cada if
Gracias por el tutorial, me resulto, pero un pregunta por que mi cámara Web me sale muy lenta,? es por la tarjeta grafica? bueno la que tengo es un AMD R5 M420 de 2GB, te agradezco tu repuesta.
Hola, una duda, he estado queriendo guardar los cambios que ido realizando pero se borran los directorios, cómo hago para que los directorios perduren?
@@AprendeIngenia Sí, es lo que buscaba, ya que cada que ejecutaba el entrenamiento, cómo tarda mucho tiempo, el cuaderno de colab se desconectaba y se borraban las carpetas de yolov5 y el data set, y no podía concluir con el entrenamiento, siempre se quedaba incompleto, estaba intentando hacer un entrenamiento con 950 imágenes con un total de 50 épocas, fue hasta que me di cuenta que los ficheros se borran después de cierto tiempo de inactividad, y creo que la alternativa para concluir el entrenamiento es ejecutarlo localmente, sobre todo sí es un dataset robusto, de hecho me gustaría hacerte una petición, la cual es si pudieras hacer un video explicando como instalar yolov5 de forma local (Windows) utilizando un data set personalizado para reconocimiento de objetos en tiempo real. agradezco tu atención, saludos.😁
Que genial!! Tony Kross enseñando sobre redes neuronales!
Jajajajaj ese T
ony es un loquillo, un dia te gana el mundial y al otro te hace una cnn
hola saludos desde Puerto Rico gracias por tomarte el tiempo de que algunos como yo .principiante y con deseos de aprender alguito te agradece como muchos tal esfuerzo.
Holaaa, es con mucho gusto!!
Parce, soy estudiante de ingeniería electrónica de la UPTC, no sé mucho del tema de programar, pero es un mundo que me llama la atención, además de la automatización. Gracias por compartir sus conocimientos y ayudar a los que queremos aprender!!
Es con muhco gusto daniel , me alegra que te haya servido el canal!
Santiago, muy interesante, he tratado de hacerlo con una lata y ha funcionado correctamente.
El problema ha sido al intentar hacerlo con 3 objetos diferentes, no he podido hacerlo. El modelo si que lo he logrado hacer bien pero en pycharm creo que algo falla ya que veo la imagen en tiempo real pero no realiza la detección.
Podrías hacer un video para ver como hacerlo con más de un objeto?
Gracias!
buenas tardes quisiera pedirte un favor, quisiera saber si pudieras facilitarme lo que has estado haciendo con lo de la lata estoy haciendo algo igual pero no me queda ayuda porfa
Excelente video eres grande
Podrías mostrarnos como acelerar pytorch con la GPU NVIDIA porfa
Fantástico vídeo !!!
Saludos desde Bilbao (país vasco)
Con mucho gusto guillermo, muchos saludos!!
Muchas gracias por ayudarnos y enseñarnos, a pesar de que no tengas las vistas que mereces sigue asi
Es con mucho gusto!
Excelente trabajo. Muchas gracias por compartir contenido de valor
Es con mucho gusto Javier!!
¡Gracias!
Muchas gracias Víctor!!!! 💙🦾
Increíble migo!!!
Saludos desde la CDMX, Mexico.
Alguna sugerencia o recomendación, me dedico a trabajar con video analíticos de video
Santiago, muchas gracias por la calidad del material. Sería posible en videos posteriores hacer un análisis de las métricas para evaluación del proceso de entrenamiento? Muchas gracias.
Hola cómo estás? Lo tendré en cuenta!!
@@AprendeIngenia que tal amigo me podría dar su contacto para comunicarme con ud
Fan #1 qué espectacular. Sos el mejor ojalá sigas subiendo este tipo de contenido.
Es posible con la detección generar un tipo de salida analógica o digital o tal vez emitir un sonido cuando detecte el objeto en mención
Muchas gracias Herman, en el siguiente video explicó cómo podemos darle uso a la detección
Gracias justo lo q estaba buscando horas y horas de búsqueda y acá encontré la solución...
Me alegra que te haya servido Gonzalo!
Gracias por los conocimientos impartidos!!! Por favor si me puede ayudar. Que línea de código puedo poner para que pruebe un video de mi pc y no en tiempo real???
Es con mucho gusto, debes hacer algo como esto:
cap = cv2.VideoCapture("nombredelvideo.mp4")
@@AprendeIngenia Muchas gracias!! a parte de eso, todo lo demás lo hago como en el video verdad?
Excelente exposicion Santiago!! sigue asi!! , hermano para ajustrar el umbral para 0.8 a mas por decir , que se agregaria al codigo? gracias!
Hola! tengo una duda, es posible aplicar este proyecto para una raspberri pi? Esto viene debido a que la librería torch desconozco si pueda ser aplicar en este microprocesador
Hola rodrigo, nunca lo he intentado pero creo que si es posible
Hola nuevamente! mira realicé tu proyecto pero al igual que tu tengo demasiado lag en la cámara. Como puedo optimizar esto? Se debe a la cantidad de imágenes validadas que usé? saludos@@AprendeIngenia
Excelente presentación. Solo tengo felicitaciones
Muchas gracuas Harold!
Gracias por ambos videos, tienes un nuevo suscriptor
Es con muhco gusto, y muchas gracias!!
Hola amigo cuando ejecuto al final en el entorno virtual sale eso NotImplementedError: cannot instantiate 'PosixPath' on your system cabe mencionar que seguí todos los pasos, agradecería tu respuesta en poder ayudarme para solucionar ello.
Hola, lograste resolver el problema? me sale exactamente lo mismo. Tiene algo que ver con el modelo que uno descarga... pero no se por que no lo detecta. Si supiste que fue, la verdad me seria de mucha ayuda
@@JUANMANUELDELRIOCUENCA tambien tengo el mismo problema. alguien q lo haya resulto
Seria muy util un video de yolo para segmentación instantanea, tiene numerosas aplicaciones como conteo de leucositos, o cualquier cosa que cuentan en lab clinicos, analisis de semillas o granos de cafe cacao, etc. muchas gracias
Hola Santi.
Tengo un problema al descomprimir mi "data" en el Google Colab. Me serviría mucha tu ayuda. Gracias
lograste solucionarlo
sigue adelante bro, eres muy bueno . te ganaste un sub.
Muchas gracias!!
Segunda parte y sin dudas, excelente video
Muchas gracias!!
por que pones images 640 y batch 4? siempre es así? min 14:45
Hola una consulta, como podría utilizar el GPU para el codigo final, noto que es algo lento y el procesamiento de imagenes se llevaría a cabo mas rapido en la GPU
Hola Nicolás, en este video te explico cómo usar la GPU: ruclips.net/video/rk7zOBRJWCc/видео.html
Muchas gracias por tu trabajo. Es de gran ayuda.
Es con mucho gusto andreu!
Hola, quería saber por que el parámetro img en el minuto 14:08 a la hora del entrenamiento vale 640
tengo la misma duda
hola buenas tardes, se podria programar un contador de personas en un video ONLINE desde un DVR?
Hola, claro que si!!
Hola ingeniero, hay manera de exportar el modelo a android studio para tener una apk?
Hola, debes convertirlo a formato JSON
hola! buen video!, sirven los requerimientos que instalaste para yolov8?
Grande! Cuales son los mejores filtros para detectar objetos??? Saludos...
Hola, gracias por el video. Con este mismo modelo se podría dibujar el contorno del carro??
Hola cómo estás? No para el contorno de un vehículo necesitas técnicas de segmentación semántica
quisiera detectar multiples objetos(personas, autos, casas, animales, etc), donde podria obtener un dataset con dichas caracteristicas?
Una pregunta, este tambien lo puedo exportar a h5 para usarlo con tensorflow. Js en la web o para subirlo a la web hay que hacerlo con framework de python ?
Hola SANTI, disculpa, cuando se llaman a los labels?
Una pregunta, en el minuto 14:48 el img en el que pones 640, el bach y las epoch que son? entiendo que las epoch son algun tipo de repeticion o ciclo de entrenamiento con backpropagation, pero lo demas? gracias de antemano
Hola Patxi la explicación de batch y epochs están en el mismo video, y 640 es el redimensionamiento para que todas las imágenes queden con un tamaño estándar
@@AprendeIngenia Esa dimensión de imagen es al que quieres que las ponga o al tamaño de imagen que tu le das? Muchas gracias
@@patxidleon3766 Ese es el tamaño de imagen con la que se hace el entrenamiento y de igual manera la inferencia.
@@AprendeIngenia Pero ese tamaño de imagen debo dárselo yo antes a la imagen? O se ajustará automáticamente? Oye siento preguntarte tanto de verdad, ando algo perdido, gracias por tu paciencia
@@patxidleon3766 Se ajustara automaticamente, es con mucho gusto!
genial tu video, una pregunta? como podrias sacar mas informacion de las imagenes, como cuantas llantas tienes? que color es? etc
excelente trabajo ,gracias por enseñarnos estos temas
Buenisimo!!! suscrito y encantado de aprender!
Con mucho gusto!!
igual lo buscare pero para reconocer caras ahora que método seria el mejor?
Hola iko, en mi canal hay un video realizando reconocimiento facial que funciona bastante bien
Me equivoqué, creí q estaba en el canal de Fortnine, te pareces mucho al presentador jaja... Buen video
Pudieras dar un TIP para que el programa en pycharm lo ejecute con la GPU ya que al igual que tu video mi PC usa el CPU y la aplicación corre demasiado lento. Saludos y excelentes videos
Hola luis, en esta pagina puedes descargar el instalador para ejcutar Pytorch con tu GPU: pytorch.org/get-started/locally/
Buen video!. Gracias por compartir tus conocimientos
Es con mucho gusto Pingui!!
Una maravilla. Gracias por tus aportes.
Muchas gracias Pedro, es con mucho gusto!
Un nuevo suscriptor mi amigo explorare tu canal
Muchas gracias julio!
buen trabajo, como hacer para que el algoritmo trabaje en GPU
Hola santiago, una consulta si mi entorno virtual es gestionado con anaconda con wsl, la ruta del path debe ser la ruta dentro de mi entorno virtual en mi caso algo como /home/nombreUsuaruo/video/model/best.pt, o tendria que ser \\wsl$\Ubuntu\home
ombreUsuari/video/model/best.pt ? en mi best.pt es mi modelo entrenado. Gracias de ante mano
Hola luis, debes colocar la direccion completa hasta tu archivo .pt
Excelente video.
Tu crees puedas revisar un poco el código de Human Path Prediction.
Hola yasmine, lo tendre en cuenta
Hola, saludos.
Tengo problemas al momento de ejecutar el codigo, como puedo solucionar el problema?
Hola en caso quiera extraer la información de cuánto carros hay, como lo haría?
Hola jose, lo explico en este video: ruclips.net/video/yZ-_oTIV8fc/видео.html
Hola! muchas gracias por el video!
Hola con mucho gusto!!
Hola, muy práctico y sencilla explicación. Una consulta, ¿alguna forma de entrenar y personalizar la detección de objetos? ¿Cómo hago para detectar los objetos que necesito en distintas ocasiones? Saludos
Hola samuel, puedes hacer el detector con el o los objetos que desees, solo asegurate de crear las carpetas para cada uno de los objetos y etiquetarlos de manera correcta
hola , buen toturial , ero ando siguiendo los pasos y cuano el colab , y busco la carpeta yolov5 no la enuentro y tampoco el archivo coco. en ese caso que se podria hacer
podrias poner el link directo de COLAB plis, no encuentro el colab que estas utilizando, el custom-training
Muy buen video! Muchas gracias!
buen día, que dimensiones de imagenes utilizas (640x640) ?
Asi es!
@@AprendeIngenia muchas gracias, por cierto excelente video
hola buenas sabes que cuando ejecuto el programa a través del CMD de windows no ocurre nada e incluso me manda un error sobre permisos denegados pero no entiendo bien ya que los permisos los tengo todos habilitados
Buenas amigo, he implementado su proyecto pero enfocado a platanos ( si es verde o amarillo) , entrene con 160 imagenes y 40 para val, el proyecto corre, pero al momento de que la camara detecte al platano que pongo en el escritorio, no lo detecta, sin embargo, si de mi celular muestro fotos de platanos a la camara , si lo detecta , que podria ser de que no este detectando el platano que muestro
Hola ricardo, debes aumentar tu dataset
Hola, gracias por el video un tutorial muy completo, solo quisiera me ayudases a resolver una duda, si yo quisiera mas adelante agregar mas objetos para detectar digamos una moto, como lo añado a la red ya entrenada y a python?
Hola luis, por cada objeto que desees agregar necesitas una carpeta mas con las imagenes del objeto deseado
@@AprendeIngenia sería que en train sería crear subcarpeta? Y en python el pt que se descarga se selecciona específicamente ese, si agrego nuevo pt de la red neuronal cómo agrego los nuevos objetos, gracias.
Si lo quiero conectar a un arduino para que haga alguna accion al detectar algo en especifico, como se podria hacer?
Si aparte de detectar el objeto, quiero que lo clasifique como sería? Y que diferencia hay de hacer ese proyecto con la jetson nano?
como se realizaria el analisis con imagenes ?, en lugar de la cámara subir imágenes para que la red devuelva la imagen con el rectángulo y el porcentaje
Te refieres a tu mismo procesar las imagenes?
@@AprendeIngenia no, lo que intento es subir una imagen para que sea analizada y me marque en donde se encuentra el objeto, por ejemplo: subir una imagen y que me retorne la imagen con el rectángulo donde se encuentra el objeto y el porcentaje
muy interesante pero tengo una duda por que el detector de carros va tan lentos
hola Aprende e Ingenia, una pregunta. Cuando quiero descargar mi modelo, esta todo bien. Pero a la hora de referenciar la ruta del archivo en mi script, no lo reconoce y no carga ni el modelo ni el sistema. Aqui que tengo que hacer?... O alguien que haya tenido el mismo problema que me pueda ayudar porfa
Gracias por el video, y en vez de usar videos, ¿se puede usar imágenes? , pues dentro de la imagen (foto por ejemplo) quiero detectar carros...Agradezco de antemano tu respuesta
Hola, claro que si, solo cambias el video por imágenes saludos!
Hola, como te puedo contactar a qué correo o chat para una asesoría? Son temas que quisiera informarme para mi tesis de maestria
Hola buen día , oye puedo utilizar una versión más actualizada de Python 3.8 ?
Me salvaste gracias. Ya tienes un suscriptor
Se usa un tipo de camara en especial o es la camara de la laptop?
Hola me encanta tus vídeos he echo algunos de tus programas código y me ha funcionado Genial!!!
Mi pregunta es tiene algún tipo de vídeo o código donde se pueda comunicar a un LiDAR en Python, para detección de objetos
Si necesitas más datos me dices
Gracias!!!
Hola Jordi, de momento no lo he hecho pero si voy a traer una serie sobre LiDAR muy pronto!
un ojito a KINECT, por ahi esta la solucion
Hola una pregunta como puedo hacer que solo me diga la posición de xmin y ymin y poder guardarlas en una variable
Hola en el video te enseño cómo extraerlas y cómo guardarlas en variables
@@AprendeIngenia Hola , si es cierto ya vi como, crees que sea bueno hacer un punto en medio de xmax y xmin , ymax y ymin y guardarlos en un arreglo para después graficarlo en matplot y que ese sea el rastro del recorrido del objeto
@@jaimegonzalocordovagarcia1796 hola Jaime, es posible, pero lo necesita?
Buenas! tengo una duda, podria correr dos modelos en tiempo real, por ejemplo uno ya predeterminado y otro custom?, analizaria un frame con los dos modelos. Tengo dudas tambien de como generar un yaml para muchas clases custom.
Muchas gracias
Hola, si puedes ejecutarlo los dos en tiempo real y necesitarias un archivo.yaml para cada uno de los modelos
hola, muy buen trabajo.
te queria preguntar al momento de realizar el entrenamiento, se crea un archivo train.cache, el cual me saca un error diciendo que los labels de /content/data/image/train.cache no fueron encontrados..me puedes ayudar gracias.
Hola gabriel, debes de indicar la direccion de manera correcta, la forma en que crees las carpetas de esa misma manera debes de llamarlas
Tiene que llamarse images y labels tus carpetas de data si o si, igual tuve ese problema y así lo solucione
@@diegobirnbaum8760 Llegar hasta aquí para solucionar ese error. Muchas gracias Hno
cuando hago la parte del entrenamiento sale este error: AssertionError: train: No labels found in /content/Data/Images/Train.cache. Ya vi las rutas y estan todas igual a como dice el video. Si puedes ayudarme lo agradeceria
Me sale el mismo error, según lo que e leído es por las etiquetas de las img pero no logro dar con que, ¿Lo pudiste resolver?
@@ivanhernandezruiz892 si, cámbiale el nombre las carpetas images y labels todo con minúscula, y luego modifica con esa ruta en minúscula el archivo coco. Después no pude hacer andar openCV para abrir la cámara y eso
Amigazo y si quisiera que al momento de detectar el objeto suene una alarma como sería? Saludos! Y gracias por el contenido que compartes
Hola victor como estas, puedes hacerlo con arduino por ac ate dejo un video imilar a lo que quieres:
ruclips.net/video/0BNQ8tEjq5M/видео.html
@@AprendeIngenia Santiago, gracias por tu pronta respuesta. Entonces supongamos que hago el modelo que tienes en este video. Lo guardo y entonces este de aqui lo puedo reemplazar en la linea de codigo que tienes en el otro video que donde esta mov=cv2.create....?
Disculpa Santiago, talvez me podrías ayudar con el modelo exacto de matriz led, arduino y voccer que usas en el otro video. Muchas gracias.
@@victorvallejo6735 Para extraer las caracteristicas de tus objetos puedes basarte en este video, tambien nos comunicamos con arduino en este video, solo tendrias que cambiar el servomotor por la alarma:
ruclips.net/video/yZ-_oTIV8fc/видео.html
@@AprendeIngenia te agradezco mucho por tomarte a molestia de responderme. Me ayudas con una última cosa, te pregunté por el modelo de matriz led y esas cosas que usas en el otro vídeo. Gracias crack 😅
gracias ... excelente me lie solo .. al final las practicas muy buena maestro ..
Hola, hace unos dias replique el procedimiento y todo funciona bastante bien, solo debes buscar bien la direccion del archivo
@@AprendeIngenia gracias ya corregí todo .. seguiré con las practicas maestro
hola buenas grandioso video, se puede utilizar en el programa una grabación externa, por ejemplo en un parqueadero y detectaría igual ? en este caso si no me equivoco utilizaste la cámara de tu pc
Hola con estas? Claro que si el funcionamiento es el mismo
@@AprendeIngenia muchas gracias, la verdad sinceramente tienes un canal muy interesante estoy aprendiendo mucho sigue así
@@juanandresveravera7952 Es con muchisimo gusto, me alegra mucho que te este sirviendo
Buen aporte, Gracias.
minuto 13:20 te falto mencionar como nosotros podemos saber la cantidad de imagenes en el google colab para hacer el entrenamiento agrego tambien que desde este año 2022 modificaron el archivo custom.yaml y es diferente el codigo al parecer empieza con 0, tambien agrego que es obligatorio agregar el archivo custom.xml al directorio y lo que no me ha gustado que no es en tiempo real como dices en el videos osea si es en tiempo real pero la camara se demora como 5 a 10 segundos en cambiar de imagen que es demasiado lento nose como se podria mejorar esto
Hola diego gracias por tu comentario, podria mejorarlo ejecutando la neurona en una tarjeta grafica medianamente decente
@@AprendeIngenia hola gracias por responder, mi idea era entrenar la neurona en el computador y ejecutar la predicción en una rasberry pi pero se que la rasberry tiene poca potencia
@@diegoulises7541 Te recomiendo usar Jetson nano
Una pregunta, en el parámetro img que fue lo que pusiste para que te funcionara correctamente?
hay alguna forma de obtener el nombre de las etiquetas para otro proceso ?
Claro que si, lo explico en el video siguiente
Amigo que tal, exclente video. PEro tengo un problema al momento de entrenar las imagenes, sale que no encuentra las imagenes y etiquetas, como puedo solucionarlo ?
bro excelente trabao me encantaria que expicaras sobre los drones si lo haz ocupado con vision artificial tengo unas ideas pero me encantaria que explicaras como lo haces de ello
Hola Arnold, actualmente trabajo en un grupo de desarrollo con drones pero no puedo comentar nada debido a un acuerdo de confidencialidad 😕
Excelente video amigo.
Una consulta, donde puedo encontrar un dataset ya entrenado para el reconocimiento del entorno?, o simplemente el dataset para reconocimiento del entorno.
Puedes encontrarlo en segment, dataste que proporciona Google
Hola, tu link de discord no esta funcionando. puedes actualizarlo?
Hola estamos en ello
Hola genial video. Una pregunta, es completamente necesario tener PyCharm?
Hola Carlos, no es necesario, puedes hacerlo desde cualquier editor de código
amigo alguna pagina para descargar las imagenes, ya que buscarlas por separado es muy tedioso, no se si haya una pagina que ofrezca dataset listos
Hola Santiago, una consulta, cómo se podría entrenar un modelo para calcular o estimar el volumen de un objeto? por ejemplo, la cantidad de café servida en una taza
y si solo lo pesas? o controlas la cantidad servida con una valvula solenoide.
Tengo un error al querer exportar el modelo archivo no encotrado
Revisa bien las carpetas ya que si entrenas varias veces se crean subcarpetas ocultas
Gracias Santiago, por excelentes videos, tengo un inconveniente y es que luego de haber realizado el entrenamiento y voy a revisar las graficas en TensorFlow, me sale el siguiente error:
403. That’s an error.
That’s all we know.
¿Sabes que puede ser?
Hola ivan, dejame revisar y te cuento
Holaaa! Que conocimiento tan maravilloso!
Una pregunta, habrá alguna manera de optimizar la lectura de los objetos con la camara?
Hola Rodrigo muchas gracias, puedes optimizarlo utilizando GPU
cómo hago correr el GPU en un AMD R5, para este proyecto como lo activo ?
@@cristianmiguelfuentesmera5241 En teoria si sigues el paso a paso ya le estas dando prioridad a la GPu con el drivers CUDA correspondientes
@@AprendeIngenia a ya genial, pero como se que esta dando prioridad en el GPu?
Que hay bro me ayudarias mucho si me respondes estaba usando tu video como guia y me funciono todo bien pero ahora no se si por la ulitma update de yolo ya no me sirve ninguna custom data cada ves que las descargo me manda error solo me sirven las datas viejas que ya tenia no se si tengas alguna idea de que hacer gracia
Hola cómo estás? La verdad no he experimentado tu error
@@AprendeIngenia Has tratado de realizar una custom data con la nueva update de yolov5 ? cambia el metodo mostrado ? vi que el coconut ahora cambia no se si sea eso
@@localboy4350 No he utilizado Yolo con su nueva update, voy a intentarlo y estare avisando por Discord
Hola, una consulta, por qué me sale este error?
WARNING: no labels found in val set, can not compute metrics without labels
Hola, al parecer no creaste las etiquetas correctas en la carpeta de validación
tiene que llamarse images y labels tus carpetas de data si o si
hola santiago,
me da error cuando quiero entrenar, ya lo cheque mil veces y le cambie cosas y no
Muy buen video!!
Muchas gracias!
Hola, puede hacer el metodo para captura los objetos en un ventana de video, es decir, como si se hiciera seguimiento a un video en tiempo real.
Hola Juan David eso lo hacemos en este video: ruclips.net/video/yZ-_oTIV8fc/видео.html
Santiago, Estoy practicando con un fruta en buen estado y otra en mal estado, ¿cómo tendria que hacer ahí ?,tendria que meter todas mis imagenes en una sola carpeta, porque hasta el momento solo me reconoce la etiqueta de mi fruta en buen estado. Gracias de antemano
Hola Luis, puedes crear varias carpetas pero en el momento de hacer el entrenamiento no olvides entregar la dirección de las carpetas nuevas
osea se hace los mismos pasos tal cual solo que van diferentes carpetas osea una para buen estado y otra para mal esrado de la fruta? pero en el codigo no entiendo osea toca indicarlas por aparte? o no?
osea son dos modelos de entreamiento diferentes o es uno solo ? , o debo hcer varias carpetas y en clases colocar 2? una para mal estado yuna para buen estado , gracias por tu respuesta@@AprendeIngenia
Que tan factible podria ser para usar las manos como un mando para jugar algun videojuego?? que tanta potenciagrafica se requiere y que tanto input lag tendria de ser asi?. Saludos, muy buenos videos
Es muy factible, puedes usar la neurona de media pipe que está muy bien optimizada
Hola, gran trabajo. Consulta, lo haras con yolov7?
Hola, muchas gracias, posiblemente actualice esta pequeña serie de detección de objetos
Hola! Muchas gracias por el video! Me funciona bastante bien y se que es avaricia pero.. yo hice etiquetas para tres objetos, me gustaria personalizar el recuadro que enmarca mi objeto del color que yo quiera, donde puedo configurar eso? o debo añadir alguna linea con el codigo RGB?
Quedo pendiente gracias!
Hola biaani, me alegra que te haya servido, claro que puedes hacerlo cuando extraes el indice de tu objeto colocas diferentes if segun el indice y cambias de color en cada if
como le hiciste para que detecte tres objetos?
como hiciste para 3 objetos?
x3 (como le hiciste?)
cmo le hciiste para detectar mas de un objeto?
Gracias por el tutorial, me resulto, pero un pregunta por que mi cámara Web me sale muy lenta,? es por la tarjeta grafica? bueno la que tengo es un AMD R5 M420 de 2GB, te agradezco tu repuesta.
Hola Cristian, posiblemente sea por eso!
Hola, una duda, he estado queriendo guardar los cambios que ido realizando pero se borran los directorios, cómo hago para que los directorios perduren?
Quieres guardar los directorios del colab?
@@AprendeIngenia Sí, es lo que buscaba, ya que cada que ejecutaba el entrenamiento, cómo tarda mucho tiempo, el cuaderno de colab se desconectaba y se borraban las carpetas de yolov5 y el data set, y no podía concluir con el entrenamiento, siempre se quedaba incompleto, estaba intentando hacer un entrenamiento con 950 imágenes con un total de 50 épocas, fue hasta que me di cuenta que los ficheros se borran después de cierto tiempo de inactividad, y creo que la alternativa para concluir el entrenamiento es ejecutarlo localmente, sobre todo sí es un dataset robusto, de hecho me gustaría hacerte una petición, la cual es si pudieras hacer un video explicando como instalar yolov5 de forma local (Windows) utilizando un data set personalizado para reconocimiento de objetos en tiempo real. agradezco tu atención, saludos.😁
@@kevinmanjarrez3562 lo tendré en cuenta Kevin!!