¿Por qué las GPUs son buenas para la IA? | Data Coffee #12
HTML-код
- Опубликовано: 6 сен 2024
- De la mano de @NVIDIAGeForceES os traigo un vídeo donde responderemos el por qué las GPUs nos aportan un mayor rendimiento que las CPUs cuando entrenamos a nuestros algoritmos de Machine Learning.
💻 Échale un ojo a la campaña de portátiles GeForce en la web de NVidia a través de este link:
Web NVidia : tiny.cc/NVidia-...
-- ¡MÁS DOTCSV! ---
💸 Patreon : / dotcsv
👓 Facebook : / ai.dotcsv
👾 Twitch!!! : / dotcsv
🐥 Twitter : / dotcsv
📸 Instagram : / dotcsv
-- ¡MI TECNOLOGÍA! ---
** Aquí no está toda mi tecnología, sólo aquella que realmente recomiendo. Usando estos links de Amazon yo me llevaré una comisión por tu compra :) **
[Tecnología básica para RUclips]
💻 Portátil - MSI GP72 7RDX Leopard : amzn.to/2CDwvgY
📸 Cámara - Canon EOS 750D : amzn.to/2CDPqbi
👁🗨 Objetivo 1 - EF 50 mm, F/1.8 : amzn.to/2CH7npx
👁🗨 Objetivo 2 - EF-S 18-135mm : amzn.to/2DuhL5t
👁🗨 Objetivo 3 - EF 24 mm, F/2.8 : amzn.to/2AYAFQm
🎤 Microfono - Blue Yeti Micro : amzn.to/2RItA0I
💡 Foco Luz - Foco LED Neewer : amzn.to/2AYCM6K
🌈 Luz Color - Tira ALED Light : amzn.to/2B2iY2l
[Mis otros cacharros]
📱 Smartphone - Google Pixel 2 XL : amzn.to/2RMuY2v
#NVIDIAStudio #RTXOn #ad
Así es como te resumen un año de cursos en la carrera de informática solamente en 15 min, genial video
Eso es porque en los cursos de informática (como arquitectura de computadores) se enfocan más en la parte práctica que en la teórica. Resolviendo un sin fin de problemas matriciales.
@@martiddy Discrepo. Me han inflado a teoría de arquitecturas de computadores y sistemas operativos durante dos años de carrera mal explicado. Si este hombre hubiese sido mi profesor en la carrera otro gallo cantaría
@@preyped ¿En serio?, con mi profesor fue al contrario. Obviamente siempre tuvimos que tragarnos un montón de materia. Pero el profesor no se molestaba en explicarla y en vez nos daba un montón de libros PDF para leer en casa y en clase solo veíamos la parte práctica.
+1
15 no 34 minutos
Disculpa si suena mal pero...
Te acabas de marcar una "sacada de chorra" espectacular.
-Lenguaje técnico y conciso.
-Fluido y dinámico.
-Entretenido! (Muy importante).
-emocionante y didáctico.
Contenido de 10.
Todo un "Must See" en el mundo de la informática.
tienes toda la razon, es todo un CAPO y se maneja super bien y te deja todo sencillo.
fon noiman
CSV = Carlos Santana Vega = Computer Science Videos, y yo que pense que era por el tipo de archivo!.
es lo que quieres que sea en tu corazon!
y yo pensando que era por el tipo de archivo de excel .csv jajajjajajajja
@@cuantocabron12 csv o "comma separated vector" no es exclusivo de excel. en uno de sus primeros videos explica que el nombre deriva de ese tipo de archivo y casualmente coincide con sus iniciales
Yo también pensaba que el Dot CSV del nombre del canal era por el tipo de archivo!
Y pensaba que el .csv era un tipo de archivo de texto del lenguaje de programacion necesario y escrito para poder hacer y programar una Inteligencia Artificial! xD
@@waly6002 de hecho creo que si podria ser, porque "dot" es el punto que se utiliza en las url, o en este caso en el archivo, punto CSV
📸 Si quieres ver más DotCSV sígueme en Instagram : instagram.com/dotcsv/
💸 ...y apoya el canal en Patreon!!! : www.patreon.com/dotcsv
Como ingeniero electrónico especializado en hardware microelectrónico, te doy la enhorabuena por este vídeo. Todo muy claro y entendible para el público en general, y sin dejar indiferente a los profesionales del sector. Yo por ejemplo soy un noob de la IA y alguna nueva idea he aprendido. Sigue así, y enhorabuena por el canal. (es el primer comentario que te dejo, rara vez suelo comentar nada en yt)
Solo puedo discrepar con una cosa: cuando hablas de transistores en el minuto 4:20, pones el símbolo de un BJT, cuando en realidad todos los sistemas digitales usan los transistores MOSFET. Hoy día BJT se usan principalmente en aplicaciones de potencia, y algún otro sistema específico donde un BJT sea necesario
@@Felga16 Correcto, sin embargo, para fines ilustrativos, es más sencillo entender un BJT que un FET, y lo digo con experiencia propia, jajaja, saludos
@@Felga16 los mosfet son más utilizados en potencia que los bjt...
Tengo 6 tarjetas gráficas 30_90 y estamos planteándonos alquilar las tarjetas para inteligencia artificial
Nuestra duda es como calcular el rendimiento en eur que nos daría
Podrías ayudarme por favor con alguna información?
Ojalá los profesores de Ingeniería Informática explicaran la mitad de bien que este vídeo, resumiendo más de un curso del grado en solo 20min. Buenísimo vídeo dot!
no tiene el mismo dominio, recomendarles este video para que sigan mejorando y tal vez un día lo hagan igual de bien o mejor!
No joda si
La mejor explicación de procesadores y gráficas de todo youtube
En español seguro que si
Con la de procesador de Nate gentile? No lo sé.
4:00 "El procesador es el que procesa"
Pelado genio arma su propia unidad central de procesamiento
La mejor síntesis, clara y precisa que he escuchado. Mi mas profundo respeto por tu labor de comunicar un conocimiento complejo.
Tremendo!!! Impresionante!!!
Soy ingeniero en ciencias de la computación egresado en la universidad de Mendoza, Argentina. Por razones de la vida mi carrera profesional se orientó hacia la automatización aplicada a la industria de procesos. Había olvidado lo hermoso y fascinante que es el campo de la IA, y gracias a tu canal está reviviendo mi interés y pasión.
Te agradezco infinitamente!
¡Enorme! ¡Excelente trabajo! ¡Acabas de resumir en poco más de 30 minutos lo que yo llevo explicándole a mis sinodales de doctorado durante 6 meses! No tengo más que comentar excepto ¡MIL GRACIAS! ¡Te felicito!
Muy buen vídeo, Carlos. Como siempre, vídeos de calidad y llenos de conocimiento. ¡Hasta se me ha hecho corto! Esperando ya el siguiente vídeo.
Resumiste mi curso de arquitectura de computadoras :0
Y una 'clase filosófica' que alguna vez un profe de álgebra lineal intento dar en cuanto a matrices y paralelismo...
Todo un crack Carlos.
Excelente!! ..Que capacidad de síntesis... espero que ahondes más en el tema en futuros vídeos. Al igual que la convolución se inspiró en el funcionamiento de la corteza visual , el "Paralelismo" se inspira en el funcionamiento de las neuronas . La biomimética es una fuente de inspiración en este campo de la tecnología.
Este vídeo me ha impactado
- Resumiste casi toda la parte de Hardware de ingenieria en computación (al menos de mi universidad). en los primero 10 min.
- En donde vives ven transistores en el bachillerato. Acá en México lo ví hasta el segundo año de ingeniería.
- Entendí todo, TODO. Haces demasiado digerible la información y ufff vuela la cabeza. Eres un crack.
Simplemente brillante. Volví a vivir la hermosa época de la universidad con este video. De lo mejor que he visto en la materia, muy bueno para compartir! Te felicito a los años de distancia
Me parece genial que haya gente que, con calidad y una dedicada edición, expliquen cosas tan complejas.
Qué bueno que estoy viendo esto justo luego de haber cursado una materia en la que se ve cómo está hecho un procesador y se programa en Assembler. La más difícil de mi carrera, y desaprobé. Pero ya la enfrentaré como debe ser este año.
Excelente video, empecé con uno y ya llevo 3 en línea. Explicas genial, la fluidez y propiedad con la que hablas haces que sea entretenido e interesante los temas. Un abrazo y felicitaciones desde Colombia. Apenas pueda apoyo el canal con aporte económico 🤘
Acabas de describir mi tesis de maestría y quedé impresionado con tu explicación.
GPU, CUDA, paralelismo, análisis de dependencia de datos, grafos, matrices de transformación; todos estos temas me apasionan. Felicidades!
Hace dos años estoy intentando comprender por mi mismo qué es un conjunto de instrucciones. Vos me lo solucionaste en pocos minutos. Muchas gracias!
Hola Dot, ¡buen video! Para poner la puntilla solo decir que no hay que mezclar las intrucciones con los ciclos. Puede haber una instrucción que tarde más de un ciclo en ejecutarse (la mayoría lo son) y no por tener el procesador un núcleo solo puede procesar una sola instrucción. Existen las cpu's que ejecutan las instrucciones de forma paralela ya que usan diferentes circuitos del procesador. Lo que se llama segmentación de instrucciones. Un saludo.
Video simplemente exquisito, toda una obra de arte. Mil Gracias maestro, nos quitamos el sombrero en reverencia a su aportación al mundo computacional. Gracias...
Es increible lo bien que has explicado lo que compone un procedador y con un lenguaje comprensible para todo el mundo.
Genial explicación, creo que es imposible sintetizarlo mejor y explicarlo de manera más simple. Saludos compañero
Impresionante tu explicación, tu sintesis, tu simplicidad para explicar conceptos complejos. Fui profesora de Universidad y realmente me resultó maravilloso el recorrido para explicar como se forma una arquitectura Von Neuman a partir de transistores, Como llevaste todo el tema de desrrollo de procesadores, Realmente MAGNIFICO !!! Ojalá yo hubiera tenido profesores como tu. Mi nombre es Ana Maria Gonzalez soy de Buenos Aires, Argentina y soy Ingeniera en Informatica . Me da pereza cambiar el nombre de mi canal... jajajajaja
De verdad, este es el mejor vídeo de arquitectura sobre un ordenador que te explica de forma resumida y precisa la arquitectura de un computador. Me gustaría ver más vídeos de hardware en cuanto a las redes neuronales, muchas gracias.
Una explicación magistral. Tenia algún conocimiento respecto a la parelización con CUDA, sin embargo, tenía muchos vacíos, entre ellos qué es un tensor core. Muy bueno. Gracias.
Excelente video caballero, con el lenguaje técnico necesario y ejemplos adecuados para entender tanto contenido en tan poco tiempo.
Es increíble lo bien que explicas, has resumido en 30 min lo que un profesor tardó mas de 4 meses, y ENCIMA mucho mejor! Gracias por tomarte el tiempo de hacer este videazo :D
Carlos en futuros IA Notebooks podrias comentar o usar Numba que seguro conoces. Veo que se hace mucha referencia a GPUs en TensorFlow y otras librerias qie conforman las redes neuronales, pero todo el computo adicional sobre datasets y data analisys se hace en numpy directamente sin aprovechar toda esta potencia.
Me uno especialmente a las felicitaciones por este video. Increible resumen de toda la arquitectura de un procesador.
Me ha gustado mucho el vídeo. Solo un apunte, creo que es confuso decir que sólo un procesador multicore puede ejecutar varias instrucciones a la vez. Hace bastante que ya teníamos procesadores superescalares que pueden hacerlo, con limitaciones pero lo hacen.
Espectacular. La calidad de este vídeo me deja sin palabras. Vaya pedazo de resumen de CPUs, Von Neumann, paralelismo, aplicaciones, etc. Entretenido, ameno, conciso, claro... En serio, eres un putísimo amo.
Como cuando después de 6 años en la escuela técnica y 3 de uni, un canal de youtube te explica el uso de la compuestas lógicas y su LÓGICA (valga la redundancia) de su funcionamiento en 10 min.
y de paso te hace un repaso de matrices.
Genio!! GRACIAS por tus aportes.
videos como estos que te simplifican la información complicada, son los que te hacen amar la informática.
Carlos, muchísimas gracias por la tremenda explicación. Por primera vez, entiendo más profundamente el tipo de cosas que componen esta ciencia. Un lujo poder contar con tus explicaciónes.
Gracias al enfoque generalista para ayudar a comprender la interacción hardware-software conseguiste con un vídeo generar en mi más interés que tres años de instituto.No sé si te sabes todo eso de memoria o tenáis ahí un teleprompter pero igualmente eres un crack.Muy buen vídeo.
Debe ser el mejor video que has hecho a modo de enseñanza. Es oro puro. Saludos.
que brutal que ahora te patrocine nvidia eres un gran youtuber y me alegra que ahora estes publicitado y puedas poder vivir un poco de youtube poco a poco y dar clases o cursos gratuitos de IA
Justo estoy viendo circuitos operacionales con Opams después de un par de bloques de transistores y todo en el DataCoffe es como un abrazo directo al cora, ver como lo que estoy aprendiendo está de gran cierto modo relacionado con el ML.
Aun voy a la mitad de tu vídeo, pero no puedo evitar venir a comentar que lo que haces es increíble! Tus vídeos son excelentes, llenos de buena información, humor y se nota a leguas que están hechos con gran pasión. Gracias por tanto trabajo.
yo amo a este hombre, es muy explicativo y se entiende demasiado bien cada cosa a demás tiene la característica que lo hace perfecto, la humildad.
Excelente video, me motivas cada vez que publicas uno nuevo para seguir adentrandome en el Data Science.
PD: Carlos activate en LinkedIn
Fabuloso video!! al fin alguien le da el valor al hardware, a lo físico, equilibrado con el software. Recuerdo mi escuela técnica cuando veíamos estos temas, fascinantes. Aporto algo mas de los benditos transistores: el poder de los semiconductores, como el silicio, y como gracias a la Física podemos lograr estos intercambios de "datos". Alucinante.
Estas explicaciones express y completas son de lo mejorcito.
Dejo abierto el video con el anuncio final, que te lo has ganado ;)
En mi proyecto final de la maestría estoy haciendo uso de pytorch y éste a su vez de mi Cuda, tengo una gtx1060, pensé que solo era para jugar jaja, abriste mis ojos, mi proyecto es sobre clasificación de textos por medio de bigramas sintácticos, haciendo uso de nlp Stanford, éste me pidió el pytorch para funcionar, wow, muchas gracias por el video.
Me llega a dar miedo como es posible que con solo media hora de información, ya entienda a grosomodo el funcionamiento de la CPU y GPU y un montón de cosas que jamás en la vida voy a necesitar saber... De verdad te felicito, tienes una habilidad espectacular para enseñar por video.
Si,yo siempre tenia la pregunta por qué se usan las GPUs en vez de las CPUs en cálculo si éstas son lo más importante de un procesador. Ahora ya caigo por qué las GPUs se usan en minería de criptomonedas y en IA y también por qué salía a relucir NVIDIA.Saludos.
es maravilloso el talento que tienes para explicar estas cusetiones complicadas de una manera entendible. Bravo
saludos desde Colombia super interesantes todos los temas que tocas, no puedo dejar de ver tus videos y creo que mi cabeza va a explotar. gracias
Tremeeendo video!! Espectacular toda la explicacion! Fuiste guiando un viaje... Me encanto. Segui asi. Un saludo desde Argentina.
Like a ciegas porque seguro será un gran video
EXCELENTE vídeo, que en media hora se enseñe todo esto ... demuestra lo mal que están las Universidades y el por qué en INFORMÁTICA están casi al mismo nivel la cantidad de estudiantes de Universidades que los que estudian online ... porque es un desastre. En Argentina todavía se pierde más de 1 año enseñando Pascal, cuando podrían meter todos los conceptos de programación con Python y el estudiante estaría más entusiasmado viendo resultados y al mismo tiempo aprendiendo algo apenas empieza con salida laboral en meses ... eso si, después para justificarse te dicen "el lenguaje no es importante" (si no es tan importante porque no enseñas Python y listo?) "se busca enseñar los paradigmas y conceptos básicos" (se puede hacer en Python también), etc.etc...EXCUSAS de gente con la cabeza cuadrada que no quiere cambiar ni su forma de enseñar, ni la currícula/programa de estudio de la Universidad por simplemente FALTA DE GANAS. Falta GENTE QUE ESTÉ A CARGO (ARRIBA, ESOS viejos pedantes cabeza cuadrada que se quedaron en el 70' y ahora son presidentes o deciden qué dictar en cada cátedra) que tenga la misma pasión y ganas que este gran señor.
La mejor explicación que he visto hasta ahora!
MUY BUEN VIDEO!! Ahora, la duda que me surge es la siguiente... si lo que vamos buscando es el paralelismo, por que no usamos FPGA´S o CPLD´S para las graficas¿?
Concuerdo con tu comentario!!! He leído que la FPGA también es usado para AI, así como las ventajas y desventajas que presenta frente a las GPU. Sería genial saber la opinión de Dot CSV a cerca de ello.
Saludos!
Lo ví sobre las 2 de la mañana.......y aún así lo entendí. Entre tanta tontería por todos lados se agradece muchísimo este oasis de información de calidad, bien resumida y mejor explicada. Así da gusto :)
Sos un genio !! Soy estudiante de robotica ! Pero quiero incorporar todo esto !! Me parece genial ! Muchas gracias por tanto !
Aunque sí que te sigo mucho en Twitter, este es de los primeros vídeos tuyos que veo (no soy una gran consumidora de RUclips 😅). Me interesa mucho el tema porque ahora estoy empezando a usar CNNs para mi tesis en neurociencia (soy la amiga de Crespo, del vídeo de neurociencia). Cuando he visto 34min digo uh, pero cuando ha llegado el final ha sido como: PERO YA? Jajajaja Bravo, me encanta cómo has explicado todo! 😍👏🏽
Me fue muy descriptivo. Excelente.Muy buen video. Yo que estudié algo de computación cuando estaban de moda los disquetes y las at 286.
por favor nunca pares de hacer videos como estos. gracias de corazon.
Wow, que super presentación. Muchas gracias por el aporte a la comunidad y a los que nos iniciamos en ML e IA
Esta reflexión y presentación nos resuelve muchos interrogantes de procesamiento de grandes volúmenes de datos. Super :)
Ya he visto un par de videos de tu canal y me ha gustado mucho. Ahora te paso a recomendar con mis amigos compuñoños :P
En un año de electrónica digital en la carrera no pase de los diez primeros segundos de este vídeo. Este canal es “next level”
Hoy te has ganado un nuevo fan de tu canal, abonado y todo. Genial!
Caí en tu canal y me he hecho DOT-adicto, me parecen impresionantes tanto las explicaciones como los vídeos . Muchas gracias por la currada!!
PD: ¿Para cuando un vídeo sobre redes convolucionales?, seguro que lo bordas y todos lo entendemos ;-)
No entendí nada porque soy nuevo en el tema, pero tus videos me dan ganas de aprender sobre esto, muchas gracias!
Me ha encantado tu vídeo! Has hecho un resumen perfecto de parte de mis años de carrera!
No hace falta ver el video para darle like. GRacias a ti estoy empezando con mi proyecto de ia todo emprico
Saludos desde Perú.... Un gran canal amigo.... Gracias X tomarte el trabajo de buscar información y compartirlo. Cn la gente 💎💎
Estaría bien saber cómo narices usar una GPU remota, tipo amazon google o similar, una vez ya teniendo mi código en Tensorflow o en Python.
SERÍA GENIAL
15:00 Jajajajaja me hizo el día esta parte 😂😂
No se como puede existir gente tan inteligente en este mundo, Gran maestro !!! Saludos desde mexico !!
5:55 Recuerdos felices de mi asignatura de Estructuras de Computadores
saludos, no habia visto este video, jajajaja que risa lo del primo, cuando trabajaba como soporte tecnico fui amonestado en la empresa por decirle a un cliente que botara su Pentium a la basura. jajaja me recordo mucho ese momento y la cara de la chica de recursos humanos era un poema. jajajaja
Probablemente el futuro tenga que ver con la confluencia con todas las tecnologías de punta. Había leído sobre la posibilidad de ir reemplazando los procesadores de silicio por el grafeno por ejemplo que permitirían un mejor empaquetamiento de los trancistores
Me encanto el video a pesar de mi poco conocimiento, quede atrapado en los videos de los laboratorios de IBM asombroso¡¡¡¡¡¡¡
Acabo de repasar los conceptos que vi en mi primer año de Ing. en Sistemas en la materia de Arquitectura de las Computadoras de una manera mucho más entretenida 😂 Excelente video como siempre!!
me encanta que abel pintos se meta con esto de la IA, me encanta tu canal
Genial vídeo . me encantó ! Soy estudiante de ingeniería mecánica ,y admiro todos los avances que potencian los informáticos.
Como diseñador de circuitos digitales con experiencia en 180 nm y 65 nm, quiero decir que tu vídeo aporta muchísimo en un área en la cual no hay mucha divulgación en español.
Gracias.
Deje de lamber que no le van a regalar la 2080ti del video
muy buena tu explicación, y la forma de resumen... mis respetos
gran capacidad de síntesis sin ignorar temas vitales
Paso por acá para decir que éste es el mejor canal de la vida. Eres el mejor y todo un ejemplo :D
Ganada la suscripción, fue bestial la explicación! Sin duda alguna te has vuelto de mis favoritos...
Siempre sigue con tu trabajo de youtube... Me has inspirado a seguir estudiando el máster.
Hermosa explicación!!! ACABAS DE LOGRAR QUE ME ENAMORE MÁS DE AI, siento que podría tocar el cielo con esto
La gpu aunque se usa para acelerar gráficos, lo que esta especializada es en matrices bidimensionales y en operar con la matriz bidimensional toda ella a la vez.
y es por eso que se se le dan bien los gráficos bidimensionales, pero si queremos trabajar con matrices de mas dimensiones o gráficos 3d es donde se tubo que desarrollar los tensor core, es decir, la tpu.
Eres un máquina. Hace tiempo que no veía un vídeo tan bien hecho.
Y una consulta ¿qué hay de esos procesadores dedicados al machine learning? ¿son todavía más rápidos que las GPU? ¿y cómo se diferencian en velocidad con los nuevos procesadores EPYC de AMD que ya vienen con 128 hilos y se pueden poner 2 cpu en paralelo teniendo 256? y cuando pasen a 5nm me imagino que van a tener 1024 hilos de ejecución. En MISMA CANTIDAD de núcleos entre CPU y GPU ¿sigue rindiendo más rápido la GPU?
Funcionamiento de una cpu desde el transistor para toda la familia!! 😂😂
;3
Increíble canal! Increíble video! Qué joyita la que encontré.
me arrancaste un aplauso!! bravo! y muchas gracias!
Simplemente Magistral este Video. Es de Antología. Gracias por la dedicación a transferir conocimiento.
Sería genial que hagas una colaboración con Nate Gentile
La mejor explicación que he escuchado y visto sobre la diferencia entre CPU y GPU. Gracias
20:30 *se le olvida colocar la imagen* , k buen video
qué bueno que regresaste con estos videos. Muy buena explicación! felicitaciones
Te lo has currado lavo. Eres un fenómeno
No entendí...puedes repetir por favor 🤣WOW un Final Resumen Magistral....Felicitaciones..👏👏👏
Fua, he visto como dos vídeos tuyos, pero decidido me voy a ver todos los videos de tu canal
El milagro del siglo XXI es tener a este tipo explicando esto en RUclips sin tener que pagar.
Una gran cantidad de información muy bien explicada y en poco tiempo, excelente trabajo.
nueno, mi procesador es un atom, asi que pasará un tiempo para que pueda probar una gpu de mi propiedad... de todas formas, este vídeo me ha ayudado mucho a entender el concepto de las gpu's, y de lo que era la tan llamada aceleración por hardware que nunca hace mi laptop. Muchas gracias!