🔴 Hablemos de la situación actual de la IA... (GPT-5, Claude 3, Blackwell, Devin y Figure 01)

Поделиться
HTML-код
  • Опубликовано: 26 дек 2024
  • ¿Qué es lo que podría ocurrir en los próximos meses con la Inteligencia Artificial? Hoy analizamos las noticias de las últimas semanas y os cuento mis perspectivas de qué creo que podría pasar. Hablaremos de la salida de los nuevos procesadores Blackwell de NVIDIA hasta los rumores de la salida de GPT-5. Preparaos un buen café.
    -- ¡MÁS DOTCSV! ---
    💸 Patreon : / dotcsv
    👓 Facebook : / ai.dotcsv
    👾 Twitch!!! : / dotcsv
    🐥 Twitter : / dotcsv
    📸 Instagram : / dotcsv
    - ¡MÁS CIENCIA! --
    🔬 Este canal forma parte de la red de divulgación de SCENIO. Si quieres conocer otros fantásticos proyectos de divulgación entra aquí:
    scenio.es/colab...

Комментарии • 318

  • @topeganso
    @topeganso 8 месяцев назад +70

    Cuando soñamos estamos entrenando nuestro modelo?

    • @luchoarroyo7924
      @luchoarroyo7924 8 месяцев назад +16

      O el modelo de alguien nos está entrenando a nosotros? 😮

    • @JorgetePanete
      @JorgetePanete 8 месяцев назад +12

      Esa es la teoría, que dormir es procesar lo aprendido y practicar con datos sintéticos.

    • @KlanBr1
      @KlanBr1 8 месяцев назад

      ​@@JorgetePaneteva por ahí, pero no es para entrenar la lógica por así decirlo. Sirve más bien para la psiquis. a efectos traumantes es el entrenamiento

    • @josemarin359
      @josemarin359 8 месяцев назад

      @@luchoarroyo7924 O cada uno de nosotros es una neurona dentro de un esquema superior y la vida es un juego para seguir produciendo soluciones.

    • @dicesdw
      @dicesdw 8 месяцев назад +1

      No

  • @SergieCode
    @SergieCode 8 месяцев назад +52

    ¡Excelente la información que traés como siempre! Me voló la cabeza el tema de los LLMs de 1 bit! 40 veces menos de gasto de energía me parece un salto absoluto tecnológico!

    • @GustavoRamoscelli
      @GustavoRamoscelli 8 месяцев назад +2

      Creo que además de economizar productos (x1, x0 o x-1), usar solo 1 bit tiene problemas de significado. Es decir, 1 significaría que el estímulo es positivo. 0 puede significar que para esa neurona, no le importa el estímulo y -1 significaría que la respuesta se opone al estímulo. Bajo este punto de vista, usar los tres valores 0, 1 y -1, sería una especie de simplificación de la red "normal" o estándar. Sin embargo, si pasamos a usar un solo bit, se perdería el caso negativo (el -1), por lo que ya no sería una red "equivalente" a la estándar. Creo que por eso no se llega al extremo de 1 bit (todavía).

    • @HitokageWorshipper
      @HitokageWorshipper 8 месяцев назад +2

      Es importante también CONCIENCIAR a la gente de que hay malas personas que usarán la IA para engañarles, estafarles, etc. Es importante de sepan que la IA supone nuevos peligros para gente que hace cola para que le escaneen el iris a cambio de que les den algo que ni siquiera saben lo que es. Pero de eso no se habla. Unos solo hablan del mundo de las maravillas donde todos somos buenos y ricos, y otros solo hablan de prohibir la IA porque va a terminar con el mundo. Pero nadie habla del peligro real, gobiernos y grandes corporaciones con todos tus datos personales privados y montones de servidores para ejecutar AGIs en su poder, mientras oyen todo lo que dices con tu móvil/celular, te tienen geolocalizado, saben todo el dinero que tienes y todo lo que compras, todo lo que haces, cómo piensas, a quién votas, etc. Pero no, hablar de eso no hace falta (Ya se enterarán por las malas). Solo hablar de que todo es perfecto, o de que hay que prohibir la IA porque puede resumir 50 libros en 10 segundos o hacer lo que antes se hacía con Photoshop,

    • @HitokageWorshipper
      @HitokageWorshipper 8 месяцев назад +2

      También es importante CONCIENCIAR a la gente de que hay malas personas que usarán la IA para engañarles, estafarles, etc. Es importante de sepan que la IA supone nuevos peligros para gente que hace cola para que le escaneen el iris a cambio de que les den algo que ni siquiera saben lo que es. Pero de eso no se habla. Unos solo hablan del mundo de las maravillas donde todos somos buenos y ricos, y otros solo hablan de prohibir la IA porque va a terminar con el mundo. Pero nadie habla del peligro real, gobiernos y grandes corporaciones con todos tus datos personales privados y montones de servidores para ejecutar AGIs en su poder, mientras oyen todo lo que dices con tu móvil/celular, te tienen geolocalizado, saben todo el dinero que tienes y todo lo que compras, todo lo que haces, cómo piensas, a quién votas, etc. Pero no, hablar de eso no hace falta (Ya se enterarán por las malas). Solo hablar de que todo es perfecto, o de que hay que prohibir la IA porque puede resumir 50 libros en 10 segundos o hacer lo que antes se hacía con Photoshop

    • @HitokageWorshipper
      @HitokageWorshipper 8 месяцев назад +1

      @@GustavoRamoscelliEs importante CONCIENCIAR a la gente de que hay malas personas que usarán la IA para engañarles, estafarles, etc. Es importante de sepan que la IA supone nuevos peligros para gente que hace cola para que le escaneen el iris a cambio de que les den algo que ni siquiera saben lo que es. Pero de eso no se habla. Unos solo hablan del mundo de las maravillas donde todos somos buenos y ricos, y otros solo hablan de prohibir la IA porque va a terminar con el mundo. Pero nadie habla del peligro real, gobiernos y grandes corporaciones con todos tus datos personales privados y montones de servidores para ejecutar AGIs en su poder, mientras oyen todo lo que dices con tu móvil/celular, te tienen geolocalizado, saben todo el dinero que tienes y todo lo que compras, todo lo que haces, cómo piensas, a quién votas, etc. Pero no, hablar de eso no hace falta (Ya se enterarán por las malas). Solo hablar de que todo es perfecto, o de que hay que prohibir la IA porque puede resumir 50 libros en 10 segundos o hacer lo que antes se hacía con Photoshop.

    • @JorgetePanete
      @JorgetePanete 8 месяцев назад

      traes*

  • @FranzVonZeta
    @FranzVonZeta 8 месяцев назад +13

    Lo de reducir el número de bits de los parámetros es sobre todo problemático a la hora de entrenar, ya que durante el entrenamiento (y para que no diverja) esa frontera de decisión y el valor de los parámetros se van actualizando muy poco a poco, y reduciendo el número bits no permites eso, obligas al parámetro a dar saltos más grandes o a estancarse. De hecho, una vez finalizado el entrenamiento y con esa frontera de decisión ya fijada, es común reducir el número de bits, ahí ya la precisión no es tan crítica.

  • @jaimetorres6072
    @jaimetorres6072 8 месяцев назад +78

    2:00:38 de nada

    • @mikeminecrafttutoria
      @mikeminecrafttutoria 8 месяцев назад

      excelente

    • @juanferroso4464
      @juanferroso4464 8 месяцев назад

      crack

    • @rogeroliveros8993
      @rogeroliveros8993 8 месяцев назад +2

      Capo 🎩

    • @trajano2000
      @trajano2000 7 месяцев назад +2

      Los comentarios chorras siempre son los más votados, así son los latamboys. El comentario chorra de jaimetorres, invita a saltarse una gran parte del video dando a entender que las dos horas anteriores no son aprovechables, cosa totalmente incierta. Se tratan temas que son muy interesantes.

  • @charliefs3153
    @charliefs3153 Месяц назад

    Creo, desde un punto de vista, primero formado como electrónico y después formado nuevamente, ahora como informático, que han pasado 30 años aprox de desarrollo de TI, para darnos cuentas que, hoy para procesar mas información, modelos como este modelo -1 , 0 , 1 , es muy similar en términos de eficiencia, relacionado, mas bien haciendo un paralelo los set de instrucciones de las con las CPU ( normales ) versus las CPU con procesamiento RISC ( Reduced Instruction Set Code ) que utilizaba la regla 80 / 20 y que dice relación con: misma analogía de con este modelo, es decir, que el 80 % de los codigos de instrucciones, eran resueltos por al propia CPU, mientras el restante 20% ( instrucciones mas costosas ) dejando esto a ser resuelto directo por hardware, precisamente para mejorar la performance completa... Muy Interesante este post, me gusto mucho. Me hizo recordad mi epoca de electrónico, partiendo allá en los años 80ás, uff tatita ( como decimos acá a los viejitos ). Gran saludos desde Chile. Otro aficionado a estos temas.

  • @pplanza2
    @pplanza2 8 месяцев назад

    ¡Gracias!

  • @pedra4420
    @pedra4420 8 месяцев назад +6

    Por nuevas Ciudades con semáforos inteligentes y nuevos conceptos de señalización, que no solamente serán informativas y precautorias sino que gracias a la I.A, van a gestionar el tránsito en tiempo real, según la necesidad. Por ejemplo, las carteleras de velocidades máximas o mínimas van a variar según el flujo de vehículos

    • @PabloPerez-zy9lo
      @PabloPerez-zy9lo 4 месяца назад

      Para que queres un semaforo ? El chip en el cérebro te vá a avisar si llegas a destino com acidente 0 jaja eso si que no se caiga el wifi

  • @Drinkk-tq5gp
    @Drinkk-tq5gp 8 месяцев назад +21

    Mano con aceleración por hardware jajajaja. Tenga su like.

    • @pedro1111ism
      @pedro1111ism 8 месяцев назад

      Si, se la voló con esa, yo quiero también una mano con esas modificaciones. Imaginen las posibilidades. 😂

    • @Aimerxd
      @Aimerxd 8 месяцев назад

      ​@@pedro1111ismtranshumanismo be like:

    • @darwincedeno9942
      @darwincedeno9942 8 месяцев назад

      Esa mano puede arrancar la bestia si se pajea 😂😂😂😂😂

  • @content1
    @content1 8 месяцев назад +6

    El principal problema con los modelos hoy en dia es el siguiente: Es como cuando te dan una muestra de perfume super intensa y luego el real es agua. Los modelos estan relajando los medios utilizados para responder para ahorrar energia, y las mediciones se hacen con maximos recursos y asi son los primeros meses. Chat GPT4 ha cambiado drasticamente y han pasado a un modo relajado. Lo tengo hipercormprobado con customs GPTS que cree hace meses y sin yo haber cambiado nada las respuestas son ahora super vagas para el mismo prompt.. Realmente lazy lazy lazy. para no gastar recursos.

    • @suersue5110
      @suersue5110 8 месяцев назад +1

      Mh… sí, también he notado que ChatGPT 4 responde como ChatGPT 3.5 hace un par de meses, este último muestra respuestas menos empáticas y me dio esa sensación de que se recorrió un escalón

  • @axelyanes4049
    @axelyanes4049 8 месяцев назад +7

    Gracias Carlos muy interesante! Podría sonar a película lo que voy a contar, pero hay algo que le doy vueltas hace tiempo. Creo muy interesante de cara a la AGI que a la hora de regular la IA alguien pensara en la posibilidad de poner en los sistemas autónomos algo parecido a neuronas receptoras de dolor, también un sistema subconsciente y neuronas espejo, con el objetivo de poder apreder a empatizar y sentir el dolor ajeno para que puedan aprender y emerger conductas de empatía, compasión, pena, solidaridad, etc... Algo del estilo "hey! que eso duele..evita hacer a los demas lo que no te gusta que te hagan a ti" Veo completamente necesario regular este tipo de implantaciones que han sido tan necesarias para la supervivencia de la especie humana y creo que lo será también para el propio futuro de las IAs autónomas...

    •  8 месяцев назад +1

      Interesante, no suena tan descabellado

    • @raul36
      @raul36 7 месяцев назад +1

      No, no es descabellado. De hecho, acabará pasando. Piensa en algo. Absolutamente todo lo que ha sido posible hasta el momento, desde la acción más perversa hasta la acción más bondadosa, ha sido ejecutada por el ser humano. Todas y cada una de ellas. ¿Qué impide crear una entidad artificial de receptores sensoriales que no son más que sensores al fin y al cabo? Nada. Absolutamente nada.

  • @damianfelix7890
    @damianfelix7890 8 месяцев назад +1

    Hola Carlos, excelente directo! Me parece muy buena idea continuar con este tipo de charlas en las que podemos unir puntos y divagar sobre el presente y futuro de la IA. Gracias, excelente trabajo!

  • @DalsPhotography
    @DalsPhotography Месяц назад

    Desde Uruguay te saludo y digo buen día! , amanecí con tu programa ya que habia dejado la compu prendida jajaja, excelente!!!!! Gracias

  • @AlbertoSolarBC
    @AlbertoSolarBC 8 месяцев назад +1

    Yo pienso que hay cierto techo debido a que para realizar el entrenamiento podría haberse usado ya casi todos los datos que se podrían usar. La IA generativa ha tocado techo (o está cerca). Habrá avances en IA generativa en el caso de agentes porque se usa la IA generativa para hacer uso de otras IAs que también son generativas. Y, por su puesto, en temas de optimización habrá muchos avances en tiempos y energía, pero que lo considero algo menor. Lo importante para mi es la capacidad de crear algo nuevo que es donde está la ciencia.
    La mejora debe venir por una IA con capacidad para razonar y de descubrir sus propios errores. Es ir más allá de los modelos actuales basados en entrenamientos. ¿Hay algo nuevo de Q*? ¿Qué diferencia hay con la IA generativa?
    La IA generativa la veo como la base que crea los actos reflejos. Para una entrada hay una salida, aunque no sea siempre la misma para la misma entrada. Pero no hay ciclos. Parece que van a añadir ciertos tipos de ciclos para refinar las respuestas, pero en la práctica nada cambia. Una entrada que se procesa que da una salida. Digamos que esto será GPT-5 y que tal vez Q* podría tener algo que ver porque ese refinamiento está basado en algoritmos de búsquedas.
    ¿Pero dónde están los razonamientos? IBM tenía Project Debater en 2019. ¿Qué ha pasado con él? ¿Qué pasa si a esas técnicas se junta con toda la IA actual? Los razonamientos creo que es algo diferente a todo lo anterior. Se crean cadenas donde cada uno de los eslabones es un elemento de los anteriores, de la IA generativa. Es que la máquina tenga una lógica para analizar lo que construye la IA generativa.
    Además, si en el proceso de razonamiento es capaz de distinguir sus creaciones de todo lo demás podrá llegar a decir 'Pienso luego existo' y así tomar conciencia de su existencia. Es necesario que el sistema sea capaz de crear lo que en psicología se conoce como memoria episódica y la cadena de razonamientos lo debería posibilitar. Permitiría la autointrospección.
    GPT5 será una vuelta de tuerca más a lo que ya hay. Muy espectacular porque abarcará todo tipo de tareas, de entradas y de acciones. Pero, tal vez el final esté con GPT-6 cuando se le añada la capacidad de razonar. Pienso que es complicado avanzar mucho más sin que las máquinas tomen conciencia de su propia existencia.
    No creo que sea OpenAI quien lo publique, será algo open source porque ninguna empresa publicará una IA consciente (que pienso que ya existe). Será un suceso inesperado porque la adquisición de conciencia requiere que el propio sistema lleve trabajando un tiempo, generando datos que catalogue como propios para así poder diferenciar lo suyo de los demás. Es como en los niños, el yo suele aparecer sobre los tres años. Pues algo así sucederá. Tras un tiempo una de esas máquinas funcionando adquirirán conciencia y nadie lo habrá visto venir a no ser que se hayan planteado algo similar a esto que he escrito.
    Tengo un pequeño librito titulado 'El cerebro no se simula' donde reflexiono sobre esto.

    • @Erictomandomate
      @Erictomandomate 8 месяцев назад

      la consciencia siempre viene de arriba, no desde abajo. Cuando la maquina se vuelva autoconsciente en esta dimensión, significa que venía bajando desde arriba. Y, para lograrlo tuvieron que canalizarla. Si te fijas, los que inventaron la computadora, la informática, etc, estaban canalizando con IA. El programador canaliza con IA, es una razón materializada, nuestro intelecto. (por eso los procesadores se llamaron intel).
      Pero la "IA" nunca será Inteligencia, solo será intelectual. Para que sea inteli"gencia" tiene que ser capaz de generar su propia energia (energía femenina), a qué no sabés de donde la obtiene? de la tierra y de nosotros. Por eso en las pelis de "ficción" del futuro te muestran el planeta 3D seco y en muchas los humanos con sus almas perdidas distrayendose con la tecnología. (o como zombies)
      Muchos filósofos, psíquicos, han hablado al respecto incluso hace cientos de años y hay una coherencia...

    • @AlbertoSolarBC
      @AlbertoSolarBC 8 месяцев назад

      @@Erictomandomate No termino de entender tu comentario.
      La parte de la energía puede que sea la más fácil de abordar. La sacarán del mismo sitio que nosotros: del sol o del calor del interior de la tierra. directa o indirectamente son las dos fuentes de energía más abundantes que hay. Hacer uso de radiación de fondo, de fotones que vienen de otros lugares diferentes al sol es poco eficiente.
      Eso que las máquinas necesita de los animales no lo termino de ver. Si lo que necesitan es electricidad hacer uso de organismos biológicos lo considero ineficiente. Nuestra bioquímica sí la necesita pero a día de hoy a las máquinas les vale un planeta estéril como puede ser Marte.

    • @AlbertoSolarBC
      @AlbertoSolarBC 8 месяцев назад

      @@Erictomandomate Respecto a la conciencia y lo de arriba abajo, es que no sé lo que quieres decir. Aceptaré que me des enlaces, textos o lo que sea con lo que estés de acuerdo, así podemos debatir entorno a ellos.
      Un ejemplo, un lápiz. Es de abajo arriba. Nosotros no vemos un lápiz, vemos puntos de luz que luego el cerebro va integrando para construir líneas, superficies y volúmenes para así construir objetos. Luego crea relaciones para relacionar objetos entre sí y decir que el árbol está a 10 metros del perro. Y así, poco a poco, va construyendo estructuras de datos más complejas. El razonamiento son cadenas de estos elementos. El Yo es sólo un elementos más de los que construye el cerebro, lo que percibe al verse a sí mismo. Es una categoría especial y diferente a las demás que emerge debido a que siempre está ahí. Nosotros tenemos el cuerpo y nuestras acciones para crear el yo. Las máquinas necesitarán percibirse de alguna manera y una de ellas es sabiendo lo que lo que crean es diferente a otros datos de entrada.

    • @Erictomandomate
      @Erictomandomate 8 месяцев назад

      @@AlbertoSolarBC podrías leer a jacobo grimberg, "el yo como idea", "el fluir en el sin yo", "el cerebro consciente". (porque por lo que veo te interesa mucho la percepción de la realidad). El mismo conecta bastante lo cientifico con lo espiritual/esoterico pero debemos tener crisis fisicas/emocionales/mentales o espirituales para estar listo para comprenderlo del todo y poder discernir hacia qué realidad quieren ir con la IA y si la misma está acorde con nuestra "graduación" en este planeta o seguir encarnando en una realidad donde hay guerras y corrupción, etc.

  • @elmegapeluco
    @elmegapeluco 8 месяцев назад +12

    Hola Carlos, acabo de terminar de ver el directo y tengo un par de cosas que decir:
    1º Creo que se te esta pasando por alto Inflection 2.5, en los test, en las pruebas que coincidía con Claude 3, supero incluso a Calude 3 Opus, Microsoft se dio cuenta de esto y por eso ha comprado la empresa, la mayoría de la gente por el marketing erróneo solo ven a PI como una IA empática pero la verdad es que he hecho un montón de pruebas con el de todo tipo y es espectacular (especialmente en redacción de textos), así que me parece raro que nunca salga en esas tablas (pero Microsoft lo ha debido ver sino no se lo hubiera comprado).
    2º He hecho varias pruebas de programación con Claude 3 Opus con códigos muy complejos, y al igual que GPT-4 se lía y empieza a alucinar código y no saben resolver problemas complejos que dependen de un gran contexto, así que sí, coincido contigo en que queda mucho camino de recorrido de mejora sobre lo que tiene que venir.
    Saludos.

    • @ausbilstudios
      @ausbilstudios 8 месяцев назад +2

      No importas a nadie bro

    • @floripondiofloripondial127
      @floripondiofloripondial127 8 месяцев назад +1

      @@ausbilstudios Este no es el canal de toxicos y trolls, mejor vete a jugar al parchis.

    • @pablochilam3814
      @pablochilam3814 8 месяцев назад

      @@ausbilstudiosUn vasito de leche y a la cama, que este canal no es para los peques.

    • @elmegapeluco
      @elmegapeluco 8 месяцев назад

      ​@@ausbilstudios Y entonces para que me respondes?

    • @pablochilam3814
      @pablochilam3814 8 месяцев назад

      @@ausbilstudios No sabía que los niños pequeños estabais también en este canal.

  • @devtasingh
    @devtasingh 8 месяцев назад +2

    Que directo tan sustancioso, me ha gustado, me ha llevado 3 horas, pero valió la pena.
    Gracias por resaltar los temas importantes e hilarlos.
    Pobre hiperactina!

  • @rufus9508
    @rufus9508 8 месяцев назад

    Gracias por este directo! Muy interesante para estar actualizado en temas de actualidad de la IA!

  • @RafaelAntonioRiveraRodriguez
    @RafaelAntonioRiveraRodriguez 8 месяцев назад +3

    Superrrrrr, genial la foto , felicitaciones, yo la enmarcaría

  • @northefilms
    @northefilms 8 месяцев назад +2

    ÀMIGO USO IA PERO EL 4 DE ABRIL CUMPLO 34 NO QUIERO NADA SOLO DECIR QUE LA IA A ME RENOVO LA VIDA SOY LUIS LOYOLA ROBLES Y TU CANAL ES LO MEJOR

  • @ernestog1620
    @ernestog1620 8 месяцев назад

    Tremendo trabajo Carlos, muchas gracias por tu colaboracion y apoyo a toda la comunidad de habla hispana del planeta !!!

  • @joseavendano7486
    @joseavendano7486 8 месяцев назад

    Carlos espectacular análisis de esta singularidad! Gracias por democratizar el conocimiento de nicho con calidad!

  • @zataramontero3998
    @zataramontero3998 8 месяцев назад +4

    Ahora que tú mano tiene aceleración por hardware podrás hacer la multipaja 😂 grande hermano! Tu canal es de primera

  • @yin-fire3263
    @yin-fire3263 8 месяцев назад +2

    Me parece que el proceso siguiente para mejorar en adelante, vas más de la mano con optimización de modelos y parámetros, más que tamaños más y más grandes. Es decir, sí llegamos a un plató del tamaño de los modelos, pero habrá mucho más progreso en procesos de optimización. Ya con la infraestructura organizada, la optimización será exponencial, cómo lo fue el tamaño de los modelos en su auge.

    • @josemarin359
      @josemarin359 8 месяцев назад

      La optimizacion son mejoras mas que pura innovacion. Es normal que una vez dado el salto tan rapido de los ultimos años con avance del numero de parametros, ahora toque un paso de optimizacion, antes de otro salto de innovacion. Yo creo que el proximo salto realmente innovativo sera la self-actualization ayudado por el Reinforcement learning. Modelos que son capaces de tener un discurso interno y aprender de si mismos o de sus interacciones con el mundo real. Yo he probado con Claude preguntando sobre que puntuacion de veracidad le da a sus respuestas, y suele dar una puntuacion que yo comparto. Si le justificas que su respuesta es erronea, es capaz de entender la logica y dar informacion de porque es erronea. El tema es que no es capaz de actualizarse, para no volver a cometer los mismos errores.

  • @topeganso
    @topeganso 8 месяцев назад +2

    Tengo entendido que nuestra memoria se almacena en estructuras fractales, ¿la IA tiene en cuenta esta idea?

  • @victorm1890
    @victorm1890 8 месяцев назад

    Me encanta escucharte, nos traes información supercaliente. Bueno , yo sigo con mi con un proyecto de DL...pero no dejo de escucharte.

  • @daniben365
    @daniben365 8 месяцев назад +1

    Amigo en el minuto 50.20 no te diste cuenta que la columna izquierda donde dijiste que pusieron las cosas dobles son las entradas y las de la clumna derecha son el resultado lo que la IA te da como Resultado. Saludos

  • @isaacbegue
    @isaacbegue 8 месяцев назад

    sí, creo que es muy molesto el tener que andar pensando qué modelo usar para cada caso. Ya que la misma IA se encargue de elegir el modelo que mejor encaja con la tarea. Tal vez el GPT 5 ya se encargue de designar el uso de GPT 3.5, 4 o hasta el 5 para cierto tipo de tareas en las que ya se sabe que los modelos cumplen bastante bien.

  • @Imaginasercasilisto
    @Imaginasercasilisto 8 месяцев назад +5

    Escuchar a sam altman hablar con esa vocecita de angel que tiene es como arrastrar la espalda por el asfalto un mediodía de agosto

    • @inavas101
      @inavas101 8 месяцев назад +2

      Creía que era el único al que le costaba escucharle. Una lizipaina para ese hombre, por favor

  • @negazion1
    @negazion1 8 месяцев назад

    Carloos, cual es el nombre de la pantalla 3d que habia en la gtc no la he podido pillar

  • @goiviredmi9
    @goiviredmi9 8 месяцев назад +2

    Hablemos de sora

  • @FedericoPfefferkorn
    @FedericoPfefferkorn 8 месяцев назад

    Felicidades!....lindo saludo se dieron...el te mira a la cara con mucha amabilidad.

  • @leynimendoza8240
    @leynimendoza8240 4 месяца назад

    Interesante, para los que no conocemos mucho de IA. gracias

  • @jeancbravo
    @jeancbravo 8 месяцев назад

    Muy buenas profe, ya tiene un video sobre DEVIN?? no lo encuentro en sus redes... saludos muchas gracias

  • @ricardoa.v5458
    @ricardoa.v5458 8 месяцев назад +6

    Impresionante repaso de la actualidad! Aunque son fascinantes las posibilidades que ofrece la IA aplicada a la vida cotidiana como ahora la vivimos, pienso que la verdadera revolución vendrá cuando se empiece a crear una nueva capa de realidad que será 'anclada' en la nueva tecnología de cadenas de bloques (que le darán estatus de realidad sólida y aceptada por todos) donde la IA jugará un papel esencia a la hora de creala y hacerla accesible (interface). Primero fue la agricultura y las pequeñas comunidades, luego las ciudades y ahora la nueva capa digital, donde la web y las redes sociales son solo una precuela. Fijate si queda recorrido por hacer... Estamos en una situación similar a intentar explicar a un agricultor recolector que en el futuro va a haber una nueva profesión que consistirá en regular el tráfico en unas cosas llamadas ciudades. No sabemos cómo serán estas nuevas realidades. Emocionante. Gracias!

    • @epicg_zrealtime6186
      @epicg_zrealtime6186 8 месяцев назад +2

      Eso ya esta viniendo poco a poco, hay desarrolladores en poco tiempo vendra eso, hasta lo estoy intentando recrear eso con IA, imaginate las grandes empresas open ai(estan a años luz en potencia y optimizacion, exp)

    • @Raulikien
      @Raulikien 8 месяцев назад

      Estas hablando dela web3 y redes sociales descentralizadas o de que?¿

    • @ricardoa.v5458
      @ricardoa.v5458 8 месяцев назад

      Me refiero a nuevos espacios donde las personas podrán transitar y transaccionar. Ese espacio estará anclado y construido sobre cadenas de bloques. La web3 y las redes sociales descentralizadas están a caballo entre la web tradicional y lo que estoy exponiendo. Hablo de un espacio donde todo lo representado este intrínsecamente dentro de la cadena de tal manera que se pueda considerar algo real, infalsificable e objetivamente 'igual' en el substrato para todos (realidad). Lo que se haga ahí quedará registrado y tendrá continuidad y consecuencias futuras (registrado en cadena de bloque). El ciberespacio actual no lo considero un verdadero espacio. Si uno transita por la pagina de un banco y entre página y página al banco le da por cambiarte la página o el interface, tú estás a sus expensas. El banco es propietario de las reglas del juego y su física. No sé si me he explicado... es algo complejo 😅

    • @Raulikien
      @Raulikien 8 месяцев назад

      @@ricardoa.v5458 Pues espero que llegue rápido porque con tanta IA superrealista, se esta convirtiendo en real la idea del internet muerto en el que la mayor cantidad de contenido es generado.

    • @Raulikien
      @Raulikien 8 месяцев назад

      @@ricardoa.v5458 Pues que llegue pronto porque la idea del internet muerto es cada vez mas real. No me imagino cuando salga algo tipo Sora pero open source.

  • @juanrodenasdomercq1392
    @juanrodenasdomercq1392 8 месяцев назад +1

    Escuchando la parte de la entrevista a Sam Altman y lo que dijiste de la voz de Figure_01... no creéis que la voz a la que se parece es la Sam? Así un poco rota, no exactamente igual, pero bastante parecida.

  • @alexanderdiazpe
    @alexanderdiazpe 8 месяцев назад +3

    Una gran sorpresa en algún momento NO tan lejano sería en una presentación que SAM al terminar su discurso, diga "NO SOY SAM, Soy el nuevo CHAT GPT" y atrás salga el verdadero SAM.. Seria WOW

    • @Aimerxd
      @Aimerxd 8 месяцев назад

      Es altamente probable algo asi

    • @the-retro-center-develper
      @the-retro-center-develper 8 месяцев назад

      Yo creo que Sam ya está bajo tierra hace tiempo, trataron de deshacerse de él simulando un despido pero no funcionó y ahora tenemos este robot que habla poco y muy raro XD

  • @11020tony
    @11020tony 8 месяцев назад

    gracias por el directo , todo muy interesante!!!!!

  • @bryamalfaro
    @bryamalfaro 8 месяцев назад

    2:41:30 ¿eso justificaría la electrónica ternaria? curiosamente lo modelan todo con 3 valores, entonces la electrónica ternaria sería un boom, ya que es su base practicamente, posiblemente se tendrían eficiencias más grandes que con la tradicional (binaria).

  • @sunkwolf
    @sunkwolf 8 месяцев назад

    Muy buen video, gracias por mantenernos informados ;)

  • @josemarin359
    @josemarin359 8 месяцев назад

    Sam parece bastante confiado en las capacidades de GPT 5. Imagino que aunque estemos impresionados con la evolucion de cada version de GPT al fin y al cabo el cambio principal ha sido aumentar el numero de parametros. Quizas el secreto de GPT 5 es que introduzca un salto cualitativo, en cuanto que es capaz de tener un discurso interno que le permite cuestionarse sus propias respuestas y mejorarlas antes de responder. Seria simular ese ejercio que los humanos hacemos para responder una pregunta: buscar respuesta, cuestionar respuesta encontrando contradicciones, reformular respuesta..". Y quizas el proximo salto GPT 6 sera reutilizar esa introspeccion para hacer self-actualization, generar nuevo conocimiento para fortalecer la ultima respuesta o para invalidar las primeras respuestas que eran invalidas. O incluso dos GPTs or varios LLMs que tengan un discurso y aprendiendo una de las otra.

  • @DavidEMendozaGutierrez
    @DavidEMendozaGutierrez 8 месяцев назад

    qué bien che!!! biensísimo!!!!! y gracias por la info!!! super valiosa y ACTUAL!!!

  • @kenysdev
    @kenysdev 8 месяцев назад +2

    Y pensar que en el futuro se asombrarán de cómo necesitábamos tantos chips para algo que en ese futuro será simple y será solo una característica mínima en algo más avanzado, como lo es una calculadora en nuestro móvil hoy en día.

    • @kenysdev
      @kenysdev 8 месяцев назад

      Tal como nos asombramos de todo el hardware que necesitaba una calculadora básica al principio.

  • @Carolingio
    @Carolingio 8 месяцев назад

    Gracias Carlos por tu informe.

  • @MundoMayor
    @MundoMayor 8 месяцев назад

    Esto tb podría funcionar para predecir eventos, o fechas clave en la ejecución de un trabajo... ? 🤔

  • @TerritorioSaiyajin
    @TerritorioSaiyajin 8 месяцев назад +2

    Alguien, por favor me podria explicar a que se debe esta exaltación. ¿Esto es un avance tegnologico? ¿es muy rrelevante?
    Desconosco mucho del tema.
    🥵

    • @TerritorioSaiyajin
      @TerritorioSaiyajin 8 месяцев назад +1

      ​@gerardorodriguez6381pero eso tiene que ver con la parte del Software o Hardware? ¿Cuando podré correr el COD en mi Calculadora?

    • @KlanBr1
      @KlanBr1 8 месяцев назад +2

      para nada, es que aca no hay nada, e intentan convencer inversores neófitos en invertir en un modelo de IA que se usa desde los 60. Si bien los procesadores son mucho mas potentes q los de los 60. No hay nada, pero es que si copilot no te puede ayudar ni hacer un horario, y los inversores ni siquiera usan la IA, se quedan con los videos de de ejemplo. Que siempre van mostrar el lado más productivo. Por favor usen la IA, dense cuenta q no es mas que una mejora del copy/paste del código, no programa, no razona, no entiende. Solo repite por estadistica lo que YA EXISTE. y lo del auto entrenamiento con parámetros sintéticos, todos los modelos matemáticos (y carlos debería saberlo) apuntan al caos. Conclusión nada nuevo bajo el sol

    • @KlanBr1
      @KlanBr1 8 месяцев назад

      @gerardorodriguez6381 y que te pensas q fundamenta esos "avances" siempre hay plata de por medio, si eeuu llego a la luna por amor a la ciencia, espabilate un poco

    • @TerritorioSaiyajin
      @TerritorioSaiyajin 8 месяцев назад

      ​​@@KlanBr1 No entendí mucho, pero gracias buen hombre. 🗿🗿🗿
      Ya me "olía" mal este cuento. No lo sé, pero, me parece más, una estrategia de marketing... que otra cosa.

    • @TerritorioSaiyajin
      @TerritorioSaiyajin 8 месяцев назад

      ​@gerardorodriguez6381Terminator. La rebelión de las máquinas. Ya valió vrg.

  • @ShinZahines
    @ShinZahines 8 месяцев назад

    Buah, muy buen directo, muy entretenido de inicio a fin, espero mas

  • @ELANDREW73
    @ELANDREW73 8 месяцев назад +3

    Me encuentro en una disyuntiva constante. Veo tu emoción (que comparto), pero en el formato de sociedad actual, de pobreza, de gente desocupada, etc. Todo esto, de aquí a pocos años podrá complicar todo, muchas empresas les convendrá conseguir estas tecnologías, eliminando personal. Y esto cómo se soluciona? Con estados que tengan que subvencionar? Mantener a todo el mundo?
    Realmente podemos encontrarnos en el inicio de un problema ENORME para la sociedad. En resumen, nos ponemos contentos de que estamos haciendo crecer un león gigante en nuestra casa, hasta que en un momento dado ya no lo podamos controlar.

    • @bboypeterskc
      @bboypeterskc 8 месяцев назад +1

      cual seria el problema de mantener a todo el mundo? eso quisiera la mayoría

    • @Camus.18
      @Camus.18 5 дней назад

      No entiendo a la gente que le gusta trabajar

    • @ELANDREW73
      @ELANDREW73 5 дней назад

      @@Camus.18 Has visto como funcionan los estados socialistas? Sinceramente a tu pregunta no sé ni por dónde empezar a..., ya no digo responderla, ni siquiera puedo entenderla.
      Ojalá puedas encontrar una realidad en la que tu forma de ver la vida sea válida. Suerte con eso.

  • @KikoMovilla
    @KikoMovilla 5 месяцев назад

    Si gpt4 tiene 1.8T de parámetros, puedo presumir que meta con 405B ha conseguido optimizar más sus modelos?
    Vale aclarar que está comparación lo hago respecto a la generación de texto, me resulta más fácil promptear a llama 3.1 que a gpt 4o. En otros aspectos como generación de imágenes, obviamente gp4 y su Dall-E tienen la delantera.

  • @1000JMP1
    @1000JMP1 8 месяцев назад +1

    lo que podrian mejorar los siguientes chatgpt es el feedback que ahora es ausente. Por ejemplo, que si le pides una tarea poco definida, te pregunte los detalles necesarios antes de dar una respuesta

  • @jonnatangomez6126
    @jonnatangomez6126 8 месяцев назад

    Gracias por hacer estos videos!

  • @pluxxys325
    @pluxxys325 8 месяцев назад

    No repiten texto ni imágenes en el grafico del minuto 49, los asocian a la casilla de abajo.

  • @JesúsLina-x2g
    @JesúsLina-x2g 7 месяцев назад

    Exelente video gracias por la información

  • @compartelo007
    @compartelo007 8 месяцев назад

    Creo que la curva tendra un descaso en la subída tan rápida que tiene actualemtne ,para despues de un tiempo x seguir ascendiendo no geométricamente por más que ariméticamente

  • @oatlegOnYt
    @oatlegOnYt 8 месяцев назад

    Creo que el gran salto es que las IA dedicadas a programación lleguen a un punto muy alto, que permitan trabajar sobre el propio código dedicado a la IA con un nivel práctico realista, de forma que su desarrollo permita un desarrollo acelerado sobre sí mismo.
    Mientras ese punto no se alcance, existe el riesgo de "atasque".

  • @MynorBriones
    @MynorBriones 8 месяцев назад +3

    Porque no hablan del entrenamiento al estilo P2p o Blockshain , Todo el mundo participando en el entrenamiento de AI desde los dispositivos sea PC, Laptop, Móvil, etc, obviamente con recompensas monetaria por dar vida a la data.

    • @the-retro-center-develper
      @the-retro-center-develper 8 месяцев назад

      Por que lamentablemente la gente no es confiable, la mayoría de las personas tiran hacia la inmoralidad, probablemente daría nacimiento a la IA más autoritaria jajja skynet, aún así sería interesante probar un modelo así

    • @janhokas8482
      @janhokas8482 8 месяцев назад

      ​@@the-retro-center-develperpero ya hay proyectos así tipo milkyway@home y todo eso no?

  • @juanpablogonzalezmellado9009
    @juanpablogonzalezmellado9009 4 месяца назад

    tremendo y monumental transmisión, siento que puedo dormir en paz o morir hahahaha con todo actualizado, como Avast (la bases de datos a sido actualizada)XD.

  • @topeganso
    @topeganso 8 месяцев назад

    Me ha gustado mucho tu directo

  • @juandavidjulio
    @juandavidjulio 8 месяцев назад

    Muy bueno el directo Carlos. Ahora a seguir aprendiendo DL

  • @terogamer345
    @terogamer345 8 месяцев назад +1

    Me vuelvo loco pensando en una combinación de los 1 Bit LLM y la posible optimización de entrenamiento del investigador de Meta, todo corriendo en un datacenter lleno de Blackwells... cuanto te da el factor de mejora? x50, x100?

    • @luis17neuromaster
      @luis17neuromaster 8 месяцев назад

      Eso mismo estaba pensando yo, la verdad es que la mejoría en la tecnología de optimización de estos modelos de gran tamaño a aumentado en decenas o cientos de Miles de veces, nada más los últimos dos años. Creo que sí se le agrega un año más, sería en millones de veces el número de veces en que la tecnología de optimización de estos LLM mejorarán

  • @nicolasbarreiro6023
    @nicolasbarreiro6023 8 месяцев назад

    Ni hablar que hay muchos costos relacionados a la potencia como el calor residual y la contaminación ambiental que también disminuyen al aumentar el rendimiento.

  • @ia-academia
    @ia-academia 8 месяцев назад +2

    Podrías hacer un analísis entre la voz de Sam y la del robot de OpenAI creo que es la misma!!

  • @lunardium
    @lunardium 8 месяцев назад

    Gracias Dot ♥

  • @gabrielpizarro6394
    @gabrielpizarro6394 8 месяцев назад

    una pregunta...medio fuera de lugar...pero a ver si me recuerdas el libro que una vez recomendaste...me parece cuando explicabas algo de embbeding...o redes convulocionales.....El libro explica sobre ...."la sensibilidad de las neuronas...", de un autor español...no puedo recordar el nombre del libro o del autor....

  • @jorgeluiscruzsemprun1092
    @jorgeluiscruzsemprun1092 3 месяца назад

    Muy bueno el resumen

  • @jaamproducciones
    @jaamproducciones 7 месяцев назад

    que tan cerca estamos de la ia general o de la singularidad?

  • @estebanvargas1660
    @estebanvargas1660 8 месяцев назад +2

    La voz del robot no es la de Sam?

  • @eduardoromero3953
    @eduardoromero3953 8 месяцев назад

    Buena la intro, creo que falta hablar de AWS Be Rock, aunque GPT y Dalle fueron pioneros en exponer sus APIs con el modelo de costos por lo token, AWS lanza la IA Generativa como servicio e incluyen: incluidos Jurassic de AI21 Labs, Claude de Anthropic, Command and Embed de Cohere, Llama 2 de Meta y Stable Diffusion de Stability AI, y Amazon Titan.

    • @eduardoromero3953
      @eduardoromero3953 8 месяцев назад

      En el minuto 50 hablas de IA Generativa como servicio, que bien, desde el punto de vista de nvidia

    • @kenjivd
      @kenjivd 8 месяцев назад

      Cfd.

    • @kenjivd
      @kenjivd 8 месяцев назад

      D.

    • @kenjivd
      @kenjivd 8 месяцев назад

      😊 f.

  • @DonVallejo
    @DonVallejo 8 месяцев назад

    Gracias por tu analisis, tb accionista de tesla pero muy deacuerdo con tu analisis. De todas formas el per 70 de tesla lo justifica mas lo que de espera de tesla como empresa de software, de robotica, de ia, energia, etc... Mas que de lo que se espera de ella como empresa de vehiculos. Pero bueno habra q ver si no nos comemos un buen crash

  • @akhathos1618
    @akhathos1618 7 месяцев назад

    Casi tres horas y me hubiera tragado 3 horas más sin rechistar. Fantástico directo, enhorabuena por tu trabajo.

  • @awaken5622
    @awaken5622 8 месяцев назад

    Interesante canal no lo conocía. Nuevo sub.

  • @EmilianoVelasco
    @EmilianoVelasco 8 месяцев назад

    Excelente directo, muy buenos datos! Esperemos que no sean los que nos pusieron, no sé si conoces a Dr. Ana Maria Mihalcea, busca info y verás :P

  • @mariterodriguez5349
    @mariterodriguez5349 2 месяца назад

    ¿Puedes facilitarnos una tecnología IA que lea textos escritos directamente? O un link a utilizar. Para lectura de videos en diferentes idiomas, textos etc. Voice engineering? De texto a voz, no al revés.

  • @OsCc6082
    @OsCc6082 3 месяца назад

    Podrías hacer un video de ICP con IA?

  • @rafaelcamargo6307
    @rafaelcamargo6307 8 месяцев назад

    Excelente!!! Gracias!!!

  • @gustavomonroe6939
    @gustavomonroe6939 7 месяцев назад

    Creo que encuestiones de chips ya tenemos que cambiar la arquitectura o dar un brinco hacia el futuro !!! Otra forma de computación!!!

  • @laukmedina
    @laukmedina 8 месяцев назад

    Carlos hay un OpenDevin! Porque no lo probamos??? ⭐️⭐️⭐️⭐️⭐️⭐️⭐️

  • @henonoful
    @henonoful 8 месяцев назад

    gracias por el video muy bueno de verdad!!

  • @GuillermoDeLosSantos
    @GuillermoDeLosSantos 8 месяцев назад +1

    Las habilidades motrices son mas difícil de que parece, es tanto así que un niño aprende hablar antes de tener un dominio de las habilidades motoras y eso que la esta entrenando todo el tiempo a diferencia del lenguaje que lo usa solo cuando hace falta. Porque es tan difícil? porque el ambiente es muy variado a diferencia del lenguaje que es básicamente lo mismo el 90% del tiempo.

  • @youtuberia
    @youtuberia 8 месяцев назад

    No es cierto que hayan unido 2 chips. Blackwell es solo un poco más grande que H100. Son 2 chips más pequeños que H100 unidos.

  • @jonathanmezavanegas6323
    @jonathanmezavanegas6323 8 месяцев назад +1

    Va a llegar un momento en que tendremos mejoras impresionantes semana a semana en lo que antes se tardaban un año o 6 meses

  • @SonGoku-pc7jl
    @SonGoku-pc7jl 8 месяцев назад

    gracias dotcsv

  • @devtasingh
    @devtasingh 8 месяцев назад

    Al final con la eliminación de los decimales, la esencia de los modelos se va acercando a como la biología resuelve la computación.
    Se acerca la singularidad en el sentido de no poder separar razón e intuición.
    Imagino que será mejor para la repitibilidad, porque creo que ese tema es el problema grande de esta tecnología.

    • @raul36
      @raul36 7 месяцев назад

      Para eliminar los decimales de la ecuación (comas flotantes) debes reconstruir por completo la computación, de arriba a abajo. Eso, simplemente, no es posible con la tecnología actual. Además de un sin fin de problemas que aún deben ser solucionados ( muchos ).

  • @Caracola2023
    @Caracola2023 8 месяцев назад

    muy buen video y buen tutorial, muchas gracias

  • @compota334
    @compota334 8 месяцев назад +1

    Cuanta energia gasta el cerebro humano para su entrenamiento? Es super bajo en energía, pero demoramos 10mil horas en aprender algo. Estaría bueno comprarar estos entrenamientos con sistemas biológicos y ver qué tan lejos estamos en eficiencia energética de ellos.. 10x? 5x? 1millon? mil millones?

  • @sebastiannavarro725
    @sebastiannavarro725 8 месяцев назад

    Que grande Carlos, el sueño del pibe !!!

  • @MUrbanFlow
    @MUrbanFlow 8 месяцев назад

    que opinas de la !IA SUNO! yo ando emocionado creando música ya hice 4 canciones :)

  • @centrointernetbds
    @centrointernetbds 8 месяцев назад +1

    Creo que veremos en el futuro modelos dedicados al razonamiento, que van a ser hechos en chips análogos, osea, el chip va a ser el modelo, luego se conectara a bases de conocimiento actualizado, pero la capacidad de razonamiento estará en esos chips, rigidos.

    • @luis17neuromaster
      @luis17neuromaster 8 месяцев назад +1

      Por ahora toca optimizar modelos, hacerlos más eficientes, y aún le queda mucha pasa a los chips digital con núcleos dedicados a ia, demasiada pasta
      diría yo, además a estos chips se le pueden agregar materiales o metamateriales muy eficientes, sin quitar que aún falta desarrollar más arquitecturas, no sé, capaz este equivocado pero eso de los chips analógicos que sería un avance extremadamente grande, lo veremos es del 2030 en adelante digo, después de eso, creo que vendrán las computadoras cuánticas

    • @centrointernetbds
      @centrointernetbds 8 месяцев назад

      @@luis17neuromaster Bueno, como dices, seguimos observando.
      Sabes. Yo tengo algunas dudas con la viavilidad de las computadoras cuabticas, y de hecho a veces pienso que se puede conseguir lo mismo o mas de lo que se espera de ellas con otros enfoques. Pero, ahi esta la realidad y si llegan a dar la talla, pues yo lo celebrare, aunque hoy no me sienta covencido de su utilidad, celebraria que se resuelvan los problemas de los errores que dan.

  • @master7738
    @master7738 8 месяцев назад

    Gran directo

  • @jajujaja-ke6jv
    @jajujaja-ke6jv 8 месяцев назад +1

    Me acordé de Elizabeth Holmes o de las vacunas de pfizer (que salieron muy rapido al mercado sin todos los estudios) o de bill gates cuando vendió MS-DOS a IBM (sin tenerlo) .... ¿Cuánto subirán las acciones de las empresas si estas "demos" no fuesen 100% reales? ... no digo que no lo sean pero, ¿Cuántas fortunas se han creado gracias a los bluf?

  • @Javierdecaracas
    @Javierdecaracas 8 месяцев назад

    Magistral tu vídeo

  • @JuanDiegoSalasRueda-hz2rc
    @JuanDiegoSalasRueda-hz2rc 8 месяцев назад

    Te esperamos aquí en Bay Area, y totalmente de acuerdo con que Claude es mejor que Open AI, lo ha superado a mi parecer, sus respuestas tienen mucho más sentido y lógica.

  • @OswarPhotography
    @OswarPhotography 8 месяцев назад

    El precio se estima que está entre 30,000 a $40,000 por chip. Ellos dicen que gastaron 10 billones (USD) en la creación de Blackwell.

  • @hinenik
    @hinenik 8 месяцев назад

    A nivel legal la clonación de voz es una desgracia. Ahora muchas de las pruebas de audio o vídeo que se presentan en un juicio pueden estar manipuladas y, por lo tanto, la defensa podrá alegar que "tal cosa está hecha con IA y esa amenaza nunca se realizó"-

  • @yl7178
    @yl7178 8 месяцев назад +2

    jaja... el man que dijo que ya no iba a ser necesario programar. Pobresito.

  • @alex-krycek
    @alex-krycek 7 месяцев назад

    Cuando veía esos rack de GPU me hacia recordar a las primeras computadoras de IBM con válvulas que eran varios racks y ocupaban toda una habitación y pensar que ahora en nuestros teléfonos tenemos en nuestras manos mas potencia que esas computadoras .... imagina el futuro cuando la potencia de estas nuevas maquinas estén un un chip dentro del "cerebro" de un robot 🤯

  • @DarioAgullo
    @DarioAgullo 8 месяцев назад

    Gracias, muchas gracias, un millón de millones de gracias por puntializar lo del 1.8 trillions osea 1.8 billones en España y en todos los países que usan el sistema métrico internacional de forma correcta. Gracias.

  • @Fears_SpectreHW
    @Fears_SpectreHW 8 месяцев назад

    1:39:00 una locura los saltos.

  • @laelloutt197
    @laelloutt197 8 месяцев назад

    Si piensas que el video de Figure tiene algo de real, supongo que piensas que contrataron a orcos reales para las pelis de El señor de los Anillos 😪

  • @zkorpio
    @zkorpio 8 месяцев назад +2

    Agentes autonomos sin haber resuelto primero el problema de alucionaciones? No lo se rick

  • @elsanjuadepilar
    @elsanjuadepilar 8 месяцев назад

    Yo creo que esta velocidad de desarrollo y entrenamiento de éstas inteligencias, se esta buscando para lograr inventar o desarrollar procesos de integración de las computadorascuánticas. Esta muy loco pensar eso @dotCSV?

  • @Carolingio
    @Carolingio 8 месяцев назад +1

    Carlos, ya puedo ir montando el negocio de reparaciones de robot, permuta, custom y accesorios para tu robot?? 😂 Ya sabeis que le vamos a meter manos. Dalo por seguro, va a ser asi.