Deepseek R1 el nuevo modelo LLM de razonamiento que causa un terremoto en la bolsa

Поделиться
HTML-код
  • Опубликовано: 8 фев 2025
  • En este programa analizamos el impacto del nuevo modelo DeepSeek R1, que ha sacudido el mercado de la IA. Este modelo lanzado la semana pasada por la startup china Deepseek ha conseguido alzarse con el puesto número 1 en las aplicaciones más descargadas de productividad para móvil al tiempo que anuncia un rendimiento similar al de los modelos o1 de OpenAI. Los supuestos costes de entrenamiento, bajísimos comparados con la competencia, ha causado estragos en la valoración de NVidia en la bolsa..
    Es este video te cuento cómo acceder al modelo y te invito a colaborar enviando las preguntas de razonamiento, matemáticas, código que te gustaría enviar al modelo. Recopilaremos y ejecutaremos las pruebas en breve, compartiendo en abierto los resultados para comprobar de primera mano cómo funciona este modelo tan prometedor.
    Guía para contribuciones aquí: github.com/lah...
    El documental sobre los Makers puede consultarse en el siguiente enlace: • Shenzhen: The Silicon ...

Комментарии • 70

  • @nichonauta
    @nichonauta 12 дней назад +10

    Muy buen análisis como siempre!
    Yo he estado trabajando estos días con DeepSeek R1 32B y me ha ido de lujo para mi trabajo diario. La principal ventaja que encuentro en los modelos razonadores, es que no tenemos que preocuparnos tanto por los prompts. Por sí solos estos modelos dan mejores respuestas dada su cadena de razonamiento.

  • @Stawwzz
    @Stawwzz 12 дней назад +6

    Hace unas horas probé en local bajo el LLM Studio y el Anything LLM el deep (Realizando mi proyecto de optimización para la firma legal que trabajo) y es fuerte se nota pero le falta optimizacion en idioma, pero note un detalle, mientras le preguntaba y rsapondia ponia algo asi; el usuario me pidio "...." Wn ese sentido considero primero antes entender.... Y en base a esp responder....". O sea el modelo de lenguaje razona mediante una codificacion mayeutica muy interesante.

  • @jmbcrp1010
    @jmbcrp1010 12 дней назад +14

    Excelente china!!! Chao el monopolio de las tech de silicón valley!!! Ya lo probé y este si que es poderoso y sin ánimo de lucro!!

    • @inteligenciafutura
      @inteligenciafutura 12 дней назад

      Yo la estoy usando en mis desarrollos

    • @mrelizeus2261
      @mrelizeus2261 12 дней назад

      Yo también. Va muy fino.​@@inteligenciafutura

    • @xancliman
      @xancliman 10 дней назад

      sin animo de lucro, que es mejor una tortilla de patatas o una pizza, sin animo de lucro

    • @jmbcrp1010
      @jmbcrp1010 10 дней назад +2

      @@xancliman yo me inclino por las patatas

    • @joseguadalupecastillocopad492
      @joseguadalupecastillocopad492 9 дней назад +1

      ​Las patatas No lucran

  • @Crisit-b4i
    @Crisit-b4i 11 дней назад +2

    Grande colorado!!!! siemppre tranquilo y explicando bien

    • @LaHoraMaker
      @LaHoraMaker  11 дней назад +1

      Gracias por comentar! Que tengas muy buen día!

  • @jaimemunoz3025
    @jaimemunoz3025 9 дней назад +1

    mejor canal de ia

  • @akhathos1618
    @akhathos1618 12 дней назад +16

    Lo que ha logrado DeepSeek es absolutamente increíble. Uso la API desde Open Web-UI y puedo asegurar que su forma de escribir y responder es la mejor que he visto en un modelo. OpenAI ha quedado en ridículo.

  • @javaboy6581
    @javaboy6581 11 дней назад +2

    Como siempre los mejores analisis maestro, todo con papers y buenos datos!

    • @LaHoraMaker
      @LaHoraMaker  11 дней назад

      Muchas gracias por comentar JavaBoy!

  • @MiguelAngelLH
    @MiguelAngelLH 12 дней назад +2

    Muy buen vídeo como siempre!💯

  • @xancliman
    @xancliman 10 дней назад

    me ha encantado, buenas referencias y bien explicado. sigue así aprendemos mucho. sobre todo lo que mas me ha gustado es lo del concepto de destilar y no sabia qyue según la tarjeta debemos escoger un modelo u otro.. por cierto una duda. es posible asignar una tarjeta dedicada al modelo de alugna forma=?

  • @ChanTadashi
    @ChanTadashi 11 дней назад +1

    Gracias Maestro !!

  • @unrobotamigable
    @unrobotamigable 12 дней назад

    Muy buena info, gracias campeón

  • @rojoguties
    @rojoguties 9 дней назад +1

    Hola! Tengo una pregunta. Durante el video se dice que Deepseek R1 70b es viable para ser utilizado en Mac Mini. Mi pregunta es: ¿Es posible y eficiente instalar el modelo en un disco duro externo de alta velocidad (crucial x10) y que sea operativo? Si es así, ¿tienes hecho o alguien de la comunidad sabe si La Hora Maker subió algún video sobre como redirigir las carpetas de Ollama hacia el disco externo? Gracias👨🏻‍💻

  • @Antonnyk
    @Antonnyk 12 дней назад

    Gracias por el video. No sé si ya tienes un video al respecto, pero podrías hablarnos más sobre los modelos destilados? Se me hace algo interesante. De igual manera buscaré a ver si tienes alguno ya publicado :)

  • @diegoferreira9565
    @diegoferreira9565 12 дней назад +2

    Gracias!

  • @unusedName1
    @unusedName1 12 дней назад +1

    Muchas gracias

  • @DesImaxina
    @DesImaxina 11 дней назад +2

    Yo estoy probando cosas en Galego y va muy bien, con tiempos largos en la respuesta, incluso "The server is busy. Please try again later." Supongo estamos medio planeta dándole caña. Saú2

    • @LaHoraMaker
      @LaHoraMaker  11 дней назад

      Gracias por compartir tu experiencia usando el modelo !

  • @nanchet
    @nanchet 9 дней назад

    Hola! No me suena que hayas hablado de las próximas APUs de AMD Ryzen AI MAX 395. Si es verdad lo que anunciaron van a tener un rendimiento muy interesante en IA. Estoy frito por ver algún benchmark 😊

  • @jorgeDeveloper80
    @jorgeDeveloper80 12 дней назад +1

    buen video

  • @galdakaMusic
    @galdakaMusic 11 дней назад +1

    Muchas gracias. Buen video!! En el otro extremo, ¿Conoces alguna herramienta online para entrenar modelos pequeños (2B) con datasets específicos? Gracias

    • @LaHoraMaker
      @LaHoraMaker  11 дней назад +1

      Gracias por tu comentario. Dos utilidades que se pueden emplear para hacer fine-tuning de modelos (pequeños o grandes) son AutoTrain de HuggingFace y Ludwig, que viene de las herramientas de machine learning de Uber: github.com/ludwig-ai/ludwig

  • @segunda_parte
    @segunda_parte 12 дней назад +1

    Por favor mejora el audio. Tuve que activar los subtitulos para poder entender lo que dices.
    Muchas gracias por el video.

  • @ismadub6022
    @ismadub6022 12 дней назад

    Vas a probar el mac mini m4 pro? Me pareció entender que despues del mac mini m4 básico ibas a probar el siguiente modelo.

    • @LaHoraMaker
      @LaHoraMaker  11 дней назад +1

      Todas las pruebas de DeepSeek R1 las vamos a hacer con el MacMini M4 Pro de 64 Gb.
      De hecho, leyendo tu comentario, creo que tengo grabado medio video con pruebas del MacMini M4 Pro de 24 Gb, pero me falta la comparación con el modelo de 64 Gb.
      Espero tenerlos en breve! Gracias por comentar!

    • @ismadub6022
      @ismadub6022 11 дней назад

      @@LaHoraMaker Genial. A ver si con el Mac Studio con el M4 ultra o el AMD Ryzen
      AI Max+ 395 aún mejora más el tema.

  • @omar_zelromu
    @omar_zelromu 12 дней назад +1

    crees que estados unidos busque competir con china en con nuevos modelos mas eficientes o pondra mas restricciones para GANAR TIEMPO?

  • @nuyenguard
    @nuyenguard 8 дней назад

    Pregunta: ¿por que habla de deepseek R1 y no de Deepseek (gratis en la web)?

  • @tres14159
    @tres14159 12 дней назад +1

    Gracias. Perdona...¿Cuál era el documental?

    • @LaHoraMaker
      @LaHoraMaker  12 дней назад

      Está es la primera parte del documental: ruclips.net/video/SGJ5cZnoodY/видео.htmlsi=HXY7y7WogfPU1mGt
      La segunda parte se titula igual, pero con part 2.
      Ya me dirás que te parece!

  • @adriintoborf8116
    @adriintoborf8116 11 дней назад

    Open AI tiene el modelo 03 para poder plantar cara a China, les va a tocar sacar ese modelo al mundo.

  • @a0z9
    @a0z9 12 дней назад

    Ha sido inesperado. Pero lo posible siempre puede aparecer en cualquier momento. Hace un mes aproximadamente ya dijeron que esta versión v3 era mejor y que era 10 veces más barata. Por lo que veo ha sido cuando le han dado un poco más de publicidad cuando los dueños de acciones se han echado la mano a la cartera y han visto que no les salían las cuentas. El lanzamiento de la app de teléfonos le ha dado la puntilla a los inversores.

  • @jordix
    @jordix 12 дней назад +5

    Los gamers se van a poder comprar rtx a precio de saldo si se confirman esos costes 😂

    • @LaHoraMaker
      @LaHoraMaker  11 дней назад +2

      ¡Qué me avisen que me apunto!

  • @MrOtelotestaverde
    @MrOtelotestaverde 12 дней назад +2

    Cuál es el documental que mencionas?

    • @LaHoraMaker
      @LaHoraMaker  12 дней назад +1

      Está es la primera parte del documental. Lo agrego en la descripción del video!
      ruclips.net/video/SGJ5cZnoodY/видео.htmlsi=HXY7y7WogfPU1mGt

    • @MrOtelotestaverde
      @MrOtelotestaverde 11 дней назад

      @ muchas gracias ☺️

  • @instellecuador3091
    @instellecuador3091 11 дней назад

    Es chino con licencia de MIT gringa, explica eso por favor

  • @videosmarcodemonte
    @videosmarcodemonte 11 дней назад +1

    Escuchando

    • @LaHoraMaker
      @LaHoraMaker  11 дней назад

      Espero que la escucha fuera productiva e interesante! Gracias por comentar!

  • @93neyra
    @93neyra 12 дней назад

    Tengo una duda con respecto a la ejecucion de los LLM's, es obligatorio el uso de graficas dedicadas, o se puede hacer uso de la GPU integrada del equipo, es que tengo una tostadora de equipo.😂😂😂

    • @akhathos1618
      @akhathos1618 12 дней назад +1

      Puedes hacer uso de la integrada usando la RAM de tu sistema. Pero estarás limitado al ancho de banda de la RAM (que es el parámetro clave para el rendimiento de un modelo).

    • @inteligenciafutura
      @inteligenciafutura 12 дней назад +1

      En teoría es low vram pero sería lento, imagino que tenés una GTX 1050 o una 1650

    • @omarnug
      @omarnug 12 дней назад +3

      En buena medida depende de la RAM que tengas. Si tienes 8-16GB, probablemente solo puedas usar modelos muy pequeñitos (2 o 3 mil millones de parámetros). Incluso con RAM infinita, no podrías usar un modelo mucho más grande porque sería extremadamente lento.

    • @93neyra
      @93neyra 12 дней назад +1

      @ Entiendo, en ese caso es mejor usar el que esta disponible en su pagina oficial, Gracias por la info, ahora entiendo la importancia de las Tarjetas graficas para este tipo de cosas.

    • @jackgaleras
      @jackgaleras 11 дней назад +2

      tengo una PC modesta latino americana promedio, y corren los modelos , obvio que un poco lento, pero como hago pocas consultas realmente no me importa.

  • @Michael-b7z8y
    @Michael-b7z8y 11 дней назад +1

    150 Millones que España a tirado a la basura,
    deepseek r1 solo costo 10 Millones.
    Debemos de dejar de tirar el dinero en chiringuitos y usarlo en cosas importantes.
    Ningún modelo Español es mejor y nos a salido como15 veces mas caro y con una calidad pésima.

  • @Chocolatiux
    @Chocolatiux 11 дней назад +3

    OPENAI nunca fue Open 🤓☝️

    • @LaHoraMaker
      @LaHoraMaker  11 дней назад +2

      Atrás quedaron los tiempos en los que OpenAI publicaba sus descubrimientos en abierto para impulsar el mundo de la IA. Ahora ofrece sus modelos vía API, con alguna contribución esporádica interesante, como Whisper.

  • @alfredonovoa8124
    @alfredonovoa8124 11 дней назад

    Los modelos Alia son ridículamente malos. No hay por donde cogerlos y en teoría se han gastado el doble que Deepseek.

  • @PHRAKENDARK
    @PHRAKENDARK 12 дней назад

    Computadores cuánticos, xd... Eso lo hace izi...

  • @mitreg1
    @mitreg1 12 дней назад

    es una lastima perder el tiempo con DEEPSEEK, es como una inteligencia artificial de hace 3 años, pida hacer a DEEPSEEK la graficacion en coordenadas cartecianas y=x^2 y vera lo que sale y haga lo mismo con ChatGTP, es otro mundo, DEEPSEEK es bueno para dar resetas de cocina

    • @myuchen
      @myuchen 12 дней назад +5

      Con recetas de cocina de 0.0001 dolares tiembla la bolsa 😅

    • @javierperezfernandez8997
      @javierperezfernandez8997 12 дней назад

      Muy cierto

    • @Sanchirowatanabe
      @Sanchirowatanabe 12 дней назад +2

      Buen intento, Sam.

    • @javierperezfernandez8997
      @javierperezfernandez8997 12 дней назад

      @Sanchirowatanabe Tiene razón Liu

    • @juanleonleon4726
      @juanleonleon4726 12 дней назад

      Falso, problemas más complejos como la integral de raíz de tangente, deepseek lo hace y explica genial con su modo razonamiento. Mientras que chapt gpt no da una respuesta satisfactoria. Otro ejemplo es pedirle que programe cualquier cosa y mostrar la prueba de una vez. Deepseek lo hace rápido y fácil y chat gpt de pago lo hace pero más lento y aveces falla la prueba.