Excelente contenido!! Gracias por compartir sus conocimientos, precisamente estaba analizando esta arquitectura y papers al respecto, y este video me aclaro varios pasos. Seria genial ver mas contenido sobre Vision Transformer y código aplicado. Saludos!!
Sí es posible y de hecho estas combinaciones pueden aprovechar las fortalezas de ambas arquitecturas para mejorar el rendimiento en tareas de modelado de series temporales.
🔥🔥Academia Online: cursos.codificandobits.com/ 🔥🔥
🔥🔥Asesorías y formación personalizada: www.codificandobits.com/servicios/ 🔥🔥
Sería genial un video con el transformer para series de tiempo 🙏 Muchas gracias por tus videos. Son excelentes!!
Estoy comenzando a aprender de Visión Computacional y me ha ayudado mucho, muchas gracias
Más masticada la informacion imposible 🙌🙌🙌
Excelente contenido!! Gracias por compartir sus conocimientos, precisamente estaba analizando esta arquitectura y papers al respecto, y este video me aclaro varios pasos. Seria genial ver mas contenido sobre Vision Transformer y código aplicado. Saludos!!
podrías hacer un video de Transformers con series se tiempo
Porfavor has un vídeo explicando el proceso de entrenar un modelo con imágenes
muy buen video, podria hacer un tutorial de como hacer afinacion de un modelo para adaptarlo a un uso especifico usando colab
Whaaaaaalaa, muchas gracias Miguel!!!
Con qué programa haces tus sliders? están muy bonitos.
Excelente gracias por su información
Muchas gracias por estos videos
Una pregunta, yo tenía entendido que el proceso de entrenamiento también contiene un proceso de auto aprendizaje con un decoder.
Hola, quería saber si también es posible aplicar Transformers a series temporales
se pueden mezclar los transformers con redes recurrentes para analizar series temporales?
Sí es posible y de hecho estas combinaciones pueden aprovechar las fortalezas de ambas arquitecturas para mejorar el rendimiento en tareas de modelado de series temporales.