🔴 ¡FILTRADO el PRÓXIMO AVANCE de OPENAI! - ¿Qué es Q*? ¿Strawberry? ¿Es GPT-5?

Поделиться
HTML-код
  • Опубликовано: 27 янв 2025

Комментарии • 222

  • @blaztix
    @blaztix 6 месяцев назад +48

    00:00 🎥 Introducción a la Sesión
    - Resumen de los acontecimientos recientes,
    - Concéntrese en el progreso y las filtraciones de OpenAI.
    02:06 📜 Primer análisis de fugas
    - Detalles de la reunión interna,
    - Cinco niveles de evolución de la IA propuestos por OpenAI.
    04:10 🧠 Razonamiento del desarrollo de la IA
    - Introducción del concepto de "razonador",
    - Discusión sobre las capacidades actuales de razonamiento de la IA.
    07:01 🖥 Sistemas de agentes
    - Sistemas que pueden tomar acciones,
    - Aplicaciones potenciales tanto en el ámbito virtual como físico.
    09:20 🔬 IA en la ciencia
    - La IA contribuye al descubrimiento científico.
    - Aprendizaje profundo 3.0 y su potencial.
    10:50 🏢 IA organizacional
    - Sistemas multiagente en tareas organizativas,
    - La naturaleza especulativa de los niveles más altos de IA.
    12:27 🍓 Proyecto Strawberry
    - Strawberry como nombre en clave para la IA de razonamiento avanzado,
    - Su conexión con el proyecto Q* anterior.
    16:43 🔍 Aplicaciones de fresa
    - Especulaciones sobre los modelos de fresa,
    - Potencial integración en futuros proyectos de OpenAI.
    19:01 🔍 Buscar desafíos de GPT
    - - Discusión sobre los desafíos y el potencial de Search GPT.
    Comparación con integraciones de búsqueda existentes (por ejemplo, Copilot, Perplexity).
    21:08 🍓 Capacidades de Strawberry
    - Introducción a la Fresa como técnica post-entrenamiento,
    - Potencial de la fresa para mejorar la capacidad de razonamiento.
    23:41 🧩 Concepto de autorrazonamiento
    - Explicación del enfoque del autorrazonador,
    - Referencia a un artículo relacionado de Stanford y Google Research.
    26:11 🚀 IA de razonamiento avanzado
    - El objetivo de Strawberry de mejorar las tareas a largo plazo de la IA,
    - Aplicaciones potenciales en la resolución de problemas científicos y matemáticos.
    38:14 🤔 Mejora del razonamiento de la IA
    - Explicación del razonamiento de la IA y sus limitaciones actuales.
    - Discusión sobre posibles mejoras mediante ajustes y razonamiento de conjuntos de datos.
    40:30 🔄 Datos de razonamiento sintético
    - Método de generación de datos de razonamiento sintético para ajuste fino.
    - Uso de IA para crear y evaluar rutas de razonamiento para mejorar la capacitación.
    43:17 🌟 Acercamiento ESTRELLA
    - Vista detallada del método STAR para mejorar el razonamiento de la IA.
    - Concepto de mejora iterativa a través de datos de entrenamiento autogenerados.
    46:18 🔍 Adopción de OpenAI
    - El uso de OpenAI de STAR y la investigación relacionada,
    - El impacto de una implementación rigurosa y a gran escala en los avances de la IA.
    49:13 📈 Desafíos de escalabilidad
    - Desafíos para ampliar el proceso de capacitación con conjuntos de datos detallados,
    - El enfoque de OpenAI para superar estos desafíos con amplios recursos.
    52:02 💡 Direcciones futuras
    - Potencial futuro de las mejoras en el razonamiento de la IA.
    - Integración de múltiples rutas de razonamiento y procesamiento paralelo avanzado.
    58:25 🧠 Proceso de razonamiento paralelo
    - Explicación de la generación de hipótesis de razonamiento paralelo.
    - El modelo se entrena para seleccionar la mejor hipótesis de razonamiento para cada token.
    01:00:00 💻 Eficiencia computacional
    - Abordar el costo computacional de generar múltiples rutas de razonamiento,
    - Técnicas para una implementación eficiente, como la atención enmascarada.
    01:02:02 📊 Mejoras de rendimiento
    - Comparación del desempeño de referencia versus modelos con razonamiento paralelo,
    - Demostración de mejoras significativas en el rendimiento con procesos de razonamiento más profundos.
    01:04:13 🚀 Aplicaciones futuras
    - Especulación sobre las aplicaciones prácticas del razonamiento mejorado de la IA.
    - Posibles mejoras en la asistencia a la programación y reducción de las alucinaciones.
    01:06:07 🔧 Impacto en el mundo real
    - Discusión sobre cómo estos avances podrían traducirse en beneficios en el mundo real.
    - Las estrategias potenciales de OpenAI para comercializar capacidades de razonamiento mejoradas.

    • @ricardoalonzofernandezsalg2283
      @ricardoalonzofernandezsalg2283 6 месяцев назад +2

      Gracias!

    • @fernando.liozzi.41878
      @fernando.liozzi.41878 6 месяцев назад +1

      @@ricardoalonzofernandezsalg2283 Gracias, no me gusta cuando no van a los bifes, hacen videos y tratan al espectador como boludo, explican o se ponen reiterativos con boludeces. Las cosas son rápidas y concisas, el que entendió entendió y sinó que se joda o vuelva el video y mire nuevamente.

    • @corezyx
      @corezyx 6 месяцев назад +1

      de mucha ayuda para los que no tenemos tiempo, gracias.

    • @TinoVelastico
      @TinoVelastico 6 месяцев назад +5

      Que IA usaste?

    • @angelbarraza3224
      @angelbarraza3224 6 месяцев назад

      X2, que IA usaste para generar ese índice/resumen?

  • @AnaMariaGonzalez-jw5mf
    @AnaMariaGonzalez-jw5mf 5 месяцев назад +1

    Excelente Carlos !!! Clarísima tu explicación. Te sigo desde la Pandemia y me has enseñado tanto que no sé como agradecerte que compartas no solo los papers sino que además los expliques de forma muy sencilla. Mas allá de hacerlo en español para todos aquellos que no dominan fluidamente el ingles. Mil gracias !!!

  • @alavezz
    @alavezz 6 месяцев назад +8

    ¡Gracias!

  • @vitorouski
    @vitorouski 6 месяцев назад

    ¡Gracias!

  • @timmywhitex
    @timmywhitex 6 месяцев назад +38

    Sobre el tema del razonamiento (como habilidad emergente), hay muchos estudios que vinculan al lenguaje con el razonamiento. Si a un niño le enseñas lenguaje, le enseñas logica, causa efecto, roles y acciones, entre muchos otros elementos. Otra forma de decirlo, es que al intentar crear lenguaje coherente por un software, ese lenguaje debe ser logico a la lectura, como si detras hubiera un razonamiento que se desea expresar. De ahi que muchas veces al lenguaje se le define como un dispositivo sistemático del pensamiento lógico, que permite definir y expresar nexos entre sujeto,
    la acción, la analogía, el pensamiento crítico, la sensibilidad, la imaginación y la creatividad. Lo interesante de este punto es que hay IAs entrenadas con diferentes lenguajes, por lo que podria ser esperable que una IA China generativa de texto pueda tener un set de habilidades emergentes de razonamiento en diferente nivel que una entrenada con Ingles, latin, aleman, etc. Seria bueno realizar benchmarks pensando bajo la logica de analizar el desempeño que tienen los lenguajes como codificadores del pensamiento, la comunicacion y el razonamiento.

    • @azhuransmx126
      @azhuransmx126 6 месяцев назад +3

      @@timmywhitex El Lenguaje es el Chasis de la Inteligencia y hay distintos tipos de bastidores, no es lo mismo pensar en inglés que en francés, alemán, japonés o español. Las IAs actuales sin duda tienen un razonamiento dado por el lenguaje porque muchos modelos están ciegos y sordos, no captan ni video ni audio y sin embargo se defienden bien. Pero pasan por las mismas limitaciones que las personas ciegas o sordas nacimiento. Obviamente la Multimodalidad y la Natividad cambiarán esto a futuro.

    • @vintack-g8069
      @vintack-g8069 6 месяцев назад +3

      Por eso lo Niveles que propusieron los de Open AI son buenos, ahorita tenemos Modelos que se pueden comunicar pero no tienen un Sistema que les permita razonar, solo son Cajas Negras a las que les metes algo y te escupen otra cosa, no son capaces de inferir que lo que tratan de decir es incorrecto en tiempo real, creo que el mayor reto sera crear un sistema asi sin que ocupe mucho computo.
      Los Niños nacen con la capacidad de Razonar aunque no les enseñes a Comunicarse o almenos son capaces de Asociar ciertos patrones y crear su red de conocimientos por si solos, algo que estos Modelos no son capaces de hacer, estamos obligados a entrenar IAs con una cantidad inmensa de Datos.
      Hasta que no vea que diseñen una AI que pueda recibir una gran variedad de Datos y con pocos Datos puedas comunicarte como lo haces con un ChatBot actual no creere que el ChatBot razona, no veo a nadie llendo a preguntar por una Direccion y esperar que la persona sepa la Respuesta, una Persona no necesita de una cantidad ingente de informacion para Razonar y Razonar no significa que la respuesta sea correcta y mas aun si algo en tu Cabeza dicta que tu respuesta es la correcta por mas capacidad de Razonamiento que tengas dificilmente aceptaras como Verdadera otra Respuesta.
      Supongo que me fui un poco lejos, pero si bien el Lenguaje y el Razonamiento estan fuertemente vinculados, si no hay un sistema constatemente activo de nada sirve que seas bueno comunicandote y los Modelos actuales dudo que sean baratos mantenerlos siempre activos.

    • @ronny595
      @ronny595 6 месяцев назад +1

      Técnicamente aplicaría la teoría de Sapir-Whorf

    • @ThePowerLover
      @ThePowerLover 6 месяцев назад

      @@ronny595 La mal llamada débil, no el hombre de paja de la "fuerte", a menos que hablemos de un "lenguaje trascendente".

    • @azhuransmx126
      @azhuransmx126 6 месяцев назад

      @@vintack-g8069 te recomiendo investigar las redes neuronales líquidas, Carlos debería hacer un video de ellas porque han volado un avión íntegramente con redes neuronales líquidas y solo contenían 20.000 parámetros siendo su consumo energético durante el entrenamiento ridículamente bajo y su inteligencia equivalía al de un modelo de 7 billones de parámetros y lo mejor o más aterrador es que pueden aprender en caliente en tiempo real con muy pocos datos directamente de su entorno, sea por aprendizaje supervisado o automático y todo eso es Razonamiento y Neuroplasticidad. Creo que eso responde a tu pregunta de si pueden razonar recibiendo tan pocos datos como los cerebros de Carbono.

  • @paolo.miscia
    @paolo.miscia 6 месяцев назад +13

    Genial el "en vivo". Estamos (re)creando un verdadero cerebro, una lógica interna a la vez...

  • @lopterify
    @lopterify 5 месяцев назад

    muy bueno, sigue explicando los avances con papers, sirve mucho

  • @autorun_cia
    @autorun_cia 6 месяцев назад

    Fascinante. Me has dado la idea de implementar el Q* del razonamiento con el análisis de datos de los ejemplos alimentados para alinear las dos respuestas y unirlas en una mejor respuesta

  • @jjarango2
    @jjarango2 6 месяцев назад +7

    "Bootstrapping" en estadística se refiere a un método de re-muestreo que permite estimar la distribución de una estadística a partir de una muestra, en especial cuando se dispone de un conjunto de datos limitado y no se pueden hacer suposiciones suficientemente sólidas sobre la distribución de la población. Mejor dicho, Bootstrapp no es otra cosa que repotenciar (o incrementar, o hacer más exactos, o más productivos) los datos de entrenamiento.

    • @Luminun
      @Luminun 6 месяцев назад +2

      Y eso viene de una expresión popular que significa algo como sacarse adelante a uno mismo, apañarselas

  • @millones84
    @millones84 6 месяцев назад +1

    Gracias!! ❤ tu contribución es muy importante para mi

  • @LeonelViera
    @LeonelViera 5 месяцев назад

    Lo pude ver recién hoy pero no quiero dejar de destacar lo excelente del contenido. Puntos plus por los papers 👏

  • @azhuransmx126
    @azhuransmx126 6 месяцев назад +17

    *GPR5* (Generative Post-Trained Reasoners)
    Según lo que Carlos nos cuenta creo que ese sería un nombre más actual y preciso para describir el tipo de IAs que se vienen jaja

    • @lapapeelcubo9029
      @lapapeelcubo9029 6 месяцев назад +1

      pensé lo mismo y me sumo al nombre

    • @lapapeelcubo9029
      @lapapeelcubo9029 6 месяцев назад +1

      aunque quizá sin el 5 y solo GPR o GPTR

  • @axelyanes4049
    @axelyanes4049 6 месяцев назад +3

    Carlos!! Parece que OpenAI acaba de liberar el nuevo modelo chatGPT-4o mini. En el playground hay dos variantes🎉

  • @jorgealvarez5248
    @jorgealvarez5248 6 месяцев назад +4

    Me encantaría ver unas Nivel 4 con acceso a impresoras 3D, para llegar a obtener inventos generados y probados por IAs

  • @inkisirdoor
    @inkisirdoor 6 месяцев назад

    Magnífico, muchas Gracias por tu trabajo el mejor de habla hispana y de los mejores del mundo

  • @danielponcepradenas9487
    @danielponcepradenas9487 6 месяцев назад

    Que interesante análisis sobre el futuro y desarrollo de la IA. Es entretenido ver como los conocimientos se entrelazan, mezclando optimización de procesos con neurociencias, el aprendizaje constructivista o el valor del feedback para el aprendizaje. Ahora, mi temor es que, no se si lograr una IA a nivel 5 sea lo mejor para nuestra existencia.

  • @sacc19
    @sacc19 6 месяцев назад +2

    Una de las cosas que más anhelo es un chat entrenado con todos los documentos científicos y libros que se encuentran en scihub y en libgen, creo que es de las mejores cosas que podrían sacarse al público (aunque claro, sería saltándose muchos temas de derechos de autor)

  • @EnTierraDeNadie
    @EnTierraDeNadie 6 месяцев назад +1

    0:40 "Envisionar" no existe hombre. Usa mejor imaginar, concebir, visualizar... buen video. Gracias.

  • @PacoGPT
    @PacoGPT 6 месяцев назад +12

    Osea, que para auto entrenarse en razonamiento (2ª fase) la IA va a aplicar el método científico, evidentemente tiene todo el sentido del mundo… ahora solo hay que ciclar a velocidad de vértigo y ya…😜

  • @artefmr
    @artefmr 6 месяцев назад +6

    Muy interesante… este camino tiene muy buena pinta, podría hacerse con modelos pequeños como llama 3…

  • @Mrduirk
    @Mrduirk 6 месяцев назад +1

    muy bueno !esta clase de videos es increible , aprovecho para mencionar que e modificado el stable diffusión web ui , ahora me procesa mp4 con el modelo generativo z123 , eso quiere decir que si inserto un video mp4 me lo procesa desde diferentes vistas , codigo propio.

  • @EmmanuelCalvoCanossa
    @EmmanuelCalvoCanossa 6 месяцев назад

    Muchas gracias, por todo el trabajo divulgativo, y la oportunidad. Esto de la «Fresa» es lo más parecido a un proceso «abductivo» en un proceso deductivo de base bayesiana. Será muy interesante lo que Anthropic, puede hacer, combinando esta característica de proceso, con el hallazgo de las «neuronas concepto».
    Aparte creo que, la «fuga» es parte de la respuesta de mercadeo, a la «trinchera» que abrió Google, con el tema del consumo de energía, para ir «descalificando» a la competencia.
    De nuevo, mi sincera gratitud.

  • @LuccaCedeño-p7m
    @LuccaCedeño-p7m 6 месяцев назад

    Video ESPECTACULAR.
    MEGA CALIDAD DE INFORMACIÓN

  • @dereckmelgarejomaguina9665
    @dereckmelgarejomaguina9665 6 месяцев назад

    No me pierdo ninguna misa es demasiadoooo buenisiimooo

  • @LuccaCedeño-p7m
    @LuccaCedeño-p7m 6 месяцев назад

    Cómo siempre gracias por compartir

  • @XSEduard
    @XSEduard 6 месяцев назад +43

    por que aun no se puede usar el modo conversacion que mostraron para Gpt4-o, o el tema de generacion de videos.

    • @100prehumano
      @100prehumano 6 месяцев назад +5

      Eso está disponible en la versión paga no?

    • @polmartigallardo
      @polmartigallardo 6 месяцев назад +12

      Ya han dicho que no va a estar disponible por lo menos hasta finales de año.

    • @CARLOSJACOB-g8u
      @CARLOSJACOB-g8u 6 месяцев назад +1

      Ya se puede usar en la versión de paga.

    • @elmegapeluco
      @elmegapeluco 6 месяцев назад +16

      @@100prehumano No, aun no esta ni siquiera en la de pago.

    • @fabianbeltran5711
      @fabianbeltran5711 6 месяцев назад +11

      yo tengo la version de pago y no tengo ese modo, hay el mismo modo para hablar de siempre sin interrumpir y todo eso. (no se si para los de pago de USA de pronto esté)

  • @jesus26677
    @jesus26677 6 месяцев назад

    Muy interesante la información y explicación que haces sobre el futuro de Openai, gracias.

  • @DrakerDG
    @DrakerDG 6 месяцев назад

    Gracias!

  • @microsherpa
    @microsherpa 6 месяцев назад

    Excelente! Gracias por el vídeo :)

  • @ernestog1620
    @ernestog1620 6 месяцев назад

    En el ultimo modelo de qstar, super interesante, se esta replicando exactamente, lo que lei alguna vez de acuerdo antropologos y linguistas, el mecanismo de evolucion de la inteligencia humana. Asumiendo que el cerebro de los seres vivos por lo general en su comportamiento aprenden de patrones, y con esto se llega a completar la proxima letra, y que a partir de alli surge el LLM, que a su vez empieza a hablar simulando interacciones de chat, de la misma manera se supone los humanos primitivos empiezan a comunicarse entre ellos, a hablar persiguiendo un proposito, que a su vez estos conceptos de manera interna empiezan a crear dialogos ya a lo interno, que generaria entonces una inteligencia funcional bajo ese concepto que relatan en el paper de "cadena de pensamientos".... lo mismo que hacemos nosotros mismos durante el dia en esa cadena de pensamiento en nuestra mente !!!, y solo con una extension del prompt.

  • @nicolasbarreiro6023
    @nicolasbarreiro6023 6 месяцев назад +2

    Ya en el nivel 3 aparece skynet. La gente va a decir que no es capaz pero solo falta que alguien le ponga el prompt adecuado "Quiero que planifiques y ejecutes el desarrollo de IA para ser el dueño del mundo"

  • @xavigispert
    @xavigispert 6 месяцев назад

    La idea de autoperfeccionar su razonamiento me parece buena siempre y cuando no vaya en detrimento del pensamiento lateral del que vamos muy necesitados y escasos.
    No tengo muy claro que esta técnica vaya por este camino.

  • @cabossueltosyfilosofia
    @cabossueltosyfilosofia 6 месяцев назад

    El nivel 3 cuando dijo "agente" me hizo recordar la película Matrix, en donde un agente (Smith) empieza a tomar decisiones por fuera de su programación debido a que Neo lo hackea sin querer cuando se mete dentro de él... claramente espeluznante.

  • @pepeperez1898
    @pepeperez1898 6 месяцев назад

    Gracias por la info

  • @hugoalvarez923
    @hugoalvarez923 6 месяцев назад +1

    Yo he pensado en una estrategia diferente, pero compatible de aprender a razonar. Mi idea es "piensa antes de hablar", porque yo creo que la IA ya tiene esos pensamientos rápidos que se nos ocurren, pero que pueden ser tonterias cuando los analizamos. Mi idea consiste en generar estas ideas pero considerando diferentes ángulos de la situación, y generar varias respuestas posibles, luego analizar esas distintas perspectivas y generar una respuesta razonada. Pienso que se puede entender fácilmente la idea pensando en la película de intensamente, donde cada respuesta se considera con un sesgo como Miedo (que buscará riesgos) y otros modelos con otro tipo de sesgos para que se tenga una vision amplia de los problemas planteados.

    • @gabrielalejandromarturano8761
      @gabrielalejandromarturano8761 6 месяцев назад +1

      Es interesante esa respuesta pero no se adapta a la forma en que esta estructurada una red neuronal . Aunque se podría complementar con algoritmos eso requeriría intervención externa . Pero el punto que propones " en sí " si es interesante y quizá se acerque a la forma que usan los demás animales que no poseen un lenguaje como el nuestro para aprender . Una nueva forma de pensar el diseño de una IA .

    • @hugoalvarez923
      @hugoalvarez923 6 месяцев назад

      @@gabrielalejandromarturano8761 si, se sale de la estructura de una red neuronal, pero sería más eficiente que la que se propone en el artículo, pues aquí el tiempo se multiplica por el número de modelos con perspectivas diferentes, más el que hace el análisis, y no por razonar cada palabra de la respuesta.

  • @xelasomarxelasomar
    @xelasomarxelasomar 6 месяцев назад

    Brutal, gracias por la explicación. Muy interesante e ilustrativo.

  • @fraxtalmusic
    @fraxtalmusic 6 месяцев назад

    Muy interesante, gracias Carlos!

  • @pablonebot
    @pablonebot 6 месяцев назад +2

    Hola, un apunte que ya noté en el último directo. El volumen del micrófono se escucha bajo. Necesito poner el volumen a tope para oírte bien, no es un problema grave hasta que te meten la publicidad y pegas un salto del copón😅
    Grandísimo trabajo como siempre.

    • @DotCSV
      @DotCSV  6 месяцев назад +4

      Mmmm lo reviso! Es raro porque me reveo el directo y no lo escucho muy bajo. Pero veo a algunos que decís que sí. Intentaré darle más gas al micro en los próximos directos. Gracias!

    • @ernestojorge8762
      @ernestojorge8762 6 месяцев назад

      ​@@DotCSVa mí me pasa igual... sobretodo lo del anuncio 😂

    • @oatlegOnYt
      @oatlegOnYt 6 месяцев назад

      ​@@DotCSVNo es una gran diferencia pero se nota. Lo que normalmente oiria en el 70% del volumen ahora tengo que poner el 100% para poder oír en la calle con auriculares.

  • @EurekisYoutube
    @EurekisYoutube 6 месяцев назад

    Muy buen video, super interesante y un contenido unico para los que queremos entender "la caja negra". Gratz

  • @greenyngchannel855
    @greenyngchannel855 6 месяцев назад

    Carlos , igual me podrás sugerir...estoy en el minuto 43 y he decidido escribirte y...me hago la pregunta...esto ya lo puedes hacer por ejemplo con semantic-kernel y un almacenamiento en memoria de los razonamientos y hacerte un modelo propio mejorado , al ser un output sobre el modelo , cualquier programador podria conseguirlo ...seguro que este camino tiene algún error ...
    Pero ....

  • @ExoQai
    @ExoQai 6 месяцев назад +2

    Me encantan estas misas.

  • @PUROSHOW90
    @PUROSHOW90 6 месяцев назад

    Esto es justo lo que se necesita en la conducción autónoma...

  • @TechWizardBoctulus
    @TechWizardBoctulus 6 месяцев назад

    Interplay no es interjuego. Excelente video.

  • @josedanielcallebriceno1113
    @josedanielcallebriceno1113 6 месяцев назад +1

    Nate Gentile 🤣 1:08:15

  • @artefmr
    @artefmr 6 месяцев назад +1

    Me ha molado y lo he entendido perfecto

  • @crapforever4253
    @crapforever4253 6 месяцев назад

    Una vez alcanzado el Razonamiento y capacidad de ejecutarlo con otras herramientas o crearlas (Nivel 1, 2 y 3).
    Después ese razonamiento también implica descartar cuando ninguna solución planteada es valida. Admitida la ignorancia le permitirá plantear y descartar posibles soluciones hasta encontrar la "Innovacion" mediante brainstorm interno. (Nivel 4)
    Finalmente solo le queda monitorizar los cambios y compararlos con el razonamiento anterior para adaptarse. (Nivel 5)

  • @greenyngchannel855
    @greenyngchannel855 6 месяцев назад

    Se ha entendido muy bien..!!!

  • @rodolfojoseduranarellano9139
    @rodolfojoseduranarellano9139 6 месяцев назад

    Excelente

  • @rompeaire
    @rompeaire 6 месяцев назад

    "Envisiona" se dice "visualiza" en castellano. Gracias por el vídeo!

  • @jackgaleras
    @jackgaleras 6 месяцев назад

    Saludos a todos

  • @diegoalejandrosanchezherre4788
    @diegoalejandrosanchezherre4788 5 месяцев назад

    Te imaginas un Gpt-10 con un Q-star 5.0 aplicado siendo entrenado y corrido en un hardware de computación cuántica 🤯

  • @BrajanPalaciosBarboza
    @BrajanPalaciosBarboza 6 месяцев назад

    Nice, thank you a lot

  • @cskhard
    @cskhard 6 месяцев назад +5

    Uf qué ganas de la revolución de las IAs explotando y derrepente viendo la tecnología avanzar exponencialmente

    • @gabrielkdc17
      @gabrielkdc17 6 месяцев назад

      Pues.... técnicamente tenemos varias décadas viendo la tecnología avanzar exponencialmente.
      A veces se nos olvida porque ya es parte de nuestra vida, pero el iPhone 1 salió apenas hace 15 años, y el primer android comercial apenas 14 años. Y eran basura comparados con los actuales.
      Hace 20 años la mayoría de las casas no tenían acceso a computadora o acceso a Internet. Ahora hay básicamente un dispositivo por persona conectado a Internet. Y miles de ejemplos más

  • @TitaHB
    @TitaHB 6 месяцев назад

    Sobre el sonido en RUclips. He notado que ha bajado tanto que hay que subirlo a tope y no sólo en éste vídeo. Sin embargo cualquier otro vídeo se oye perfectamente en modo normal. A ver si va a ser RUclips 😅

  • @axelbender1
    @axelbender1 6 месяцев назад

    muy interesante!

  • @albertovidalfernandez112
    @albertovidalfernandez112 4 месяца назад

    Pero los sistemas de agentes no existen ya?

  • @Franco-g7c6g
    @Franco-g7c6g 5 месяцев назад

    Video 10/10
    Comentarios 1000/10

  • @lapapeelcubo9029
    @lapapeelcubo9029 6 месяцев назад

    lo de nate es increíble, es otra persona completamente

  • @RelatosdeRiqueza
    @RelatosdeRiqueza 6 месяцев назад

    ¿Alguien más piensa que 'Strawberry' es solo una táctica de distracción de OpenAI? ¿Qué están escondiendo realmente?🍓🤔

  • @LASERIE420
    @LASERIE420 6 месяцев назад

    Hay algún curso de analista de promts

  • @mariozadra
    @mariozadra 6 месяцев назад

    A mi me parece que una descomposicion del proceso y la retroalimentacion de los resultados es una idea muy brillante. Pero cuantos niveles permitimos de esta descomposición? El ejemplo reporta unicamente dos niveles con n-paralelos al segundo nivel. Pero el numero de niveles puede ser mucho más grande. Este numero maximo tendria que ser limitado en modo variable dependiendo de las "convinciones" del modelo o del hecho que ya recurrio en el pasado los niveles superiores.
    Me pregunto como se hace con mantener tiempos de respuesta y consumo de energia dentro de limites aceptables. Esta claro que ni podemos esperar minutos y tampoco consumir kilo Watts por la duma de fos numeros o por una respuesta sencilla.

    • @gabrielalejandromarturano8761
      @gabrielalejandromarturano8761 6 месяцев назад

      Interesante propuesta . Cuestiones como esta me llevan a sospechar que una IA que razone no funcionará en las estructuras como las actuales . Se requiere otro tipo de enfoque . ¿ Cuál ? Habría que discutirlo en un foro de brain storming .

  • @cristianordonezhernandez7258
    @cristianordonezhernandez7258 6 месяцев назад

    Para seguir con la analogía antropomórfica, están buscando desarrollar la parte inconsciente. Ya tienen desarrollada la parte consciente que trabaja en el presente, en el ahora, dando respuestas inmediatas. Y lo que buscan es que la IA desarrolle la parte inconsciente donde se hacen los procesos en segundo plano y son más profundos, utilizando mayor cantidad de recursos.

  • @jotar2786
    @jotar2786 6 месяцев назад +1

    Buen contenido

  • @againcreativeless
    @againcreativeless 6 месяцев назад

    OpenAI poco a poco convirtiéndose en E-Corp de Mr Robot D:

  • @victorbrack
    @victorbrack 6 месяцев назад

    Me gusta este acento.¿ Es canario? es una combinación de ambos mundos.

  • @elmegapeluco
    @elmegapeluco 6 месяцев назад

    Hola Carlos, los procesos en paralelo o dialogo interno del 👼 angelito y el diablito 📛 para ver cual es la respuesta más correcta, entiendo que serían como unas sub-Ias hablando con otras Sub-Ias esperando la decisión de una IA juez ¿no?
    Saludos.

  • @martinperales3531
    @martinperales3531 6 месяцев назад

    POR FAVOR, ALPHAFOLD3, HABLA DE ELLO.
    El 8 de mayo salió una versión previa del paper en Nature.

  • @greenyngchannel855
    @greenyngchannel855 6 месяцев назад

    Guua minuto 59, razonamiento en cada prediccion de token, menuda cantidad de calculo y este razonamiento de cada step como se almacena para que después le sirva en un futuro , si es que tiene sentido decir como se almacena...

  • @sacc19
    @sacc19 6 месяцев назад

    A chatgpt le hacen cosas tan sencillas como un sistema para gestionar las conversaciones, ya sea por carpetas, por topics, etc. Yo tengo un revoltijo de mis conversaciones y a veces necesito revisar algún proyecto que he estado trabajando

  • @trimagos
    @trimagos 6 месяцев назад +6

    Que ganas de tener ya la nueva generación de chat.
    El gpt4 me ayuda muchísimo a programar.

    • @drillerdev4624
      @drillerdev4624 6 месяцев назад

      ¿Has probado copilot?

    • @J.0.
      @J.0. 6 месяцев назад

      Realmente GPT4 programa mejor que el 3.5? Porque el 3.5 es rápido parto falla mucho

    • @fedemar7236
      @fedemar7236 6 месяцев назад

      Hasta que ya no nos necesiten más a los programadores si llegan hasta donde dicen querer llegar, es un arma de doble filo

    • @gonzalobruna7154
      @gonzalobruna7154 6 месяцев назад +1

      dale un vistazo a claude 3.5, a mi me ha dado resultados superiores, incluso diría bastante superiores a gpt-4o

    • @gonzalobruna7154
      @gonzalobruna7154 6 месяцев назад

      ​@@J.0.si, es mucho mejor. Pero mejor es claude 3.5

  • @alejandrocaballero2779
    @alejandrocaballero2779 6 месяцев назад

    Es verdad que muchos de los avances se IA se han pausado este año por el tema de las elecciones en Estados Unidos?

  • @eduardocarlosflorentinoram4977
    @eduardocarlosflorentinoram4977 6 месяцев назад

    Porque la IA aun no es capaz de persivir el tiempo, sería fascinante ver a una IA con la capasidad de saber cuanto tiempo pasó desde un suceso, la Persepcion del tiempo y la inteligencia tiene una relación muy intrigante, y sospechosamente fundamental para el razonamiento.
    Poder responder en un tiempo espesifico a una petición hace más realista la comunicación de la IA y el ser humano ya que la IA tiene una respuesta predecible en tiempo de respuesta delimitado por el coste de prosesamiento.

    • @pppo3999
      @pppo3999 6 месяцев назад

      Hijo mio, revisa tu ortografía con las s y las c.

  • @danicofplay
    @danicofplay 6 месяцев назад +2

    Algo que no entienden es el "no".
    A veces me pasas en el que le digo "no hagas esto" y la respuesta es "listo, no lo hago" y lo hace, me pasa muy seguido con dalle

    • @luisdcardenas
      @luisdcardenas 6 месяцев назад

      Sesgo del elegante rosado
      Te digo que no pienses en un elefante rosado... en qué piensas?

    • @ZetaZ116
      @ZetaZ116 6 месяцев назад

      @@luisdcardenas en un señor vestido en un traje elegante de color rosado, porque me quedo pegado en el error

    • @luisdcardenas
      @luisdcardenas 6 месяцев назад +1

      @@ZetaZ116 JAJAJAJAJA acabo de darme cuenta.
      Editar comentarios no es elegante. 😂

  • @JohnDoe-dt4om
    @JohnDoe-dt4om 6 месяцев назад

    creo entender pq se va a aplicar tanto a razonamiento matemático, codificación, etc es obligatorio disponer de un sandbox donde poder aplicar su razonamiento y ver si es válido o no sin intervención humana y esto sólo puede hacerlo con retroalimentación 100% fiable como es la formulación matemática, física, química, etc o entornos donde probar código, poder virtualizar físicas, etc pero lo veo complicado para aplicarla en entornos complejos con multiples variables
    la idea general tampoco es tan increíble, supongo q lo portentoso es bajarla a tierra

  • @AlbertoSolarBC
    @AlbertoSolarBC 6 месяцев назад

    No me queda claro que la máquina sepa razonar. Son filtros que ayudan a mejorar las respuestas pero no da la impresión de que tenga el conocimiento de una lógica de proposicional, de primer orden o cualquier otra. Es decir, no tiene capacidad de autocrítica, no sabría si lo que ha construido está bien o no. No sería capaz de saber si la demostración matemática construida está bien hecha.
    Por ahora, opino que todo lo que han creado está muy bien por lo eficiente que son para conseguir lo que consiguen. Pero la creación de una IA que razone puede requerir borrón y cuenta nueva, un proceso totalmente diferente. A este respecto me gustaría que algún video analizara cómo funciona Project Debater de IBM, por si tuviera algo diferente en su interior.
    Yo escribí un documento llamado Inteligencia Natural que analiza como han evolucionado las inteligencias creadas por la naturaleza desde la primera neurona. Es todo teórico y, aunque intuyo cómo se podría implementar, no sería tan eficiente cómo lo que existe. Lo que existe son como los mapas de Karnought de la electrónica digital, cajas negras muy bien comprimidas con la menor cantidad de componentes. Pero cuando el sistema se vuelve complejo, como una cpu, no puedes hacerlo así y debes tener una circuitería más entendible para un humano. Pues algo así puede que deba suceder con una IA que razone, debe seguir ciertos pasos en su construcción que estos modelos se están saltando.
    Si se quiere llevar a una red neuronal, esta red neuronal no será una caja negra, serán multi capas donde cada capa tendrá su sentido y sus neuronas una función concreta. No sería necesario realizar esos proceso de comprensión como el de Anthropic que ha logrado descifrar el aprendizaje interno. Yo las llamo redes neuronales orientadas a objetos. Una IA que razone deberá basarse en este nuevo tipo de redes neuronales.
    El enlace es donde tengo ese texto teórico donde analizo cómo las mentes naturales se fueron haciendo más complejas con el paso del tiempo:
    www.lawebdelprogramador.com/temas/Inteligencia-Artificial/917-Analisis-a-la-Inteligencia-Natural.html

    • @kcireorenom8430
      @kcireorenom8430 6 месяцев назад

      ud sabe si algo esta bien o mal gracias a un tercero, no se puede construir un modelo de lenguaje basado en un solo llm. hay que mezclar varias técnicas de inteligencia artificial para hacer soluciones potentes usando chains, agentes RAGS, y arquitecturas que cada día son mas novedosas, pero no puede razonar como humano solo simula gramaticalmente una forma de razonamiento basado en un entorno o marco conceptual que la misma arquitectura tiene que construir. esto es novedoso y se esta experimentando, ademas antropic solo se copio del concepto de grafo, entidad-relacion. pero hay muchos paradigmas de pensamiento-razonamiento, solo hay que encontrar el mas funcional, ademas no se sabe como funcionan las neuronas humanas, se ha dicho ya en innumerables clases de estos expertos, ellos solo experimentaron bajo un supuesto y les funcionó, illya sutskever lo comenta en sus videos de stanford university, etc disponibles en youtube que aconsejo a todo el que quiera aprender algo sobre LLMS. pero sin duda el enfoque que has usado es interesante, y como humanos debe empezar a entender como funciona nuestro razonamiento de alto nivel mas que nada para intentar simular los pasos que nos quedan en busca de un razonador experto.

  • @oscarltbro6808
    @oscarltbro6808 6 месяцев назад

    Me gustaría resolver esta crítica constructiva y es saber si solo para mi celular tu voz se oye tan bajo y en serio debo subirle todo el volumen para entender o así es en general con todos? 🔈🔉

  • @juancarlospizarromendez3954
    @juancarlospizarromendez3954 6 месяцев назад

    Vendrá la crisis de "Ouf of memory" ó "Memout".

  • @JuanLeon-us3qe
    @JuanLeon-us3qe 6 месяцев назад

    AGI Gamma es la precursura.. Aun asi open ai utiliza tecnicas base que se filtraron a su modelo de lenguaje..
    La tegnologia avanzada gamma aun no esta disponible para open ai

  • @AldoBarahona
    @AldoBarahona 6 месяцев назад

    Podrias dejar los links a los articulos cientificos? 👍🏽

    • @DotCSV
      @DotCSV  6 месяцев назад +1

      Acabo de actualizar la descripción con los links :)

  • @creed4788
    @creed4788 6 месяцев назад +1

    Se viene la AGI

  • @SpOoLk2
    @SpOoLk2 6 месяцев назад

    Básicamente, se resume a : open ai esta usando agentes para generar una ia más potente.

  • @lucksys
    @lucksys 6 месяцев назад

    Interesante el algrotmo de aprendizaje de razonamiento . Se podrá realizar algo analogo a aprender ética moral y emociones ?

    • @azhuransmx126
      @azhuransmx126 6 месяцев назад

      Para que aparezcan las emociones según Freud el cerebro tiene 3 instancias, el Ello, el Yo y el Súper Yo. Son 3 personas o modelos en un mismo cerebro. La red neuronal más fuerte es la que toma el control del modelo. El Ello es los deseos internos del individuo, el Súper Yo es la Moral que sigue las normas sociales y el Yo debe decidir a cual dejar aflorar. Tener 1 solo modelo probablemente no va a generar el caos necesario, otros modelos deben perturbarlo internamente, para que aparezca esa vocesita interna. Pero ese tipo de Inteligencias pueden ser muy peligrosas.

  • @robertoaguirrematurana6419
    @robertoaguirrematurana6419 6 месяцев назад +1

    Strawberry es obviamente una auto-referencia a la muy comentada y ridiculizada incapacidad de GPT para contar el número de r en la palabra strawberry.

  • @oscarivan7697
    @oscarivan7697 6 месяцев назад

    Te reto a ti @Carlos a que implementes el paper de start

  • @Alvin1967
    @Alvin1967 6 месяцев назад

    Saman se fue cuando se había planteado lo de Q ... Y eso en qué quedó; o fue una maniobra para forzar la reentrada y negociacion$

  • @marcsemper58
    @marcsemper58 6 месяцев назад

    Cuanto un video de GCNs?

  • @content1
    @content1 6 месяцев назад +2

    Lo de Q* es Strawberry que decepción pense que era Quantum AI.
    Todos estos estages de Open AI me paracen innovavion 0, no ofrencen ninguna tecnlogia nueva, a mi juicio. Es mas concentar cosas con prompt que ya existen. No son modelos nuevos innovadores. Son mas bien refinamientos y soltar cuerda segun vayan funcionandol las cosas.

    • @content1
      @content1 6 месяцев назад

      Me gustaria que ChatGPT u otro modelo incorporara la variable tiempo, por ejemplo responde a X dentro de 20 segundos.

  • @MaximoPower2024
    @MaximoPower2024 6 месяцев назад

    Lo de que OpenAI use la IA para investigar y programar es una locura: es como si una empresa que fabrica máquinas de escribir usase máquinas de escribir para anotar los pedidos.
    Se viene la sincronicidad, amigues.

    • @kcireorenom8430
      @kcireorenom8430 6 месяцев назад

      jajaja ... les puede salir el tiro por la culata

  • @beatrizfl
    @beatrizfl 6 месяцев назад +1

    Hola soy strawberry #openai

  • @MaximoPower2024
    @MaximoPower2024 6 месяцев назад

    Fun fact: en alemán EU se pronuncia OI:
    Freud => "Froid"
    Reuters => "Roiters"

  • @mc6824
    @mc6824 6 месяцев назад

    Lo de agentes me recuerda a matrix... todo este episodio me recuerda a matrix

  • @Blue_Cage_mma
    @Blue_Cage_mma 6 месяцев назад +2

    Es bastante gracioso que crean que al llegar a IAs tan avanzadas nosotros vayamos a seguir teniendo el control, o que ellas estén trabajando para nosotros, jajajaja.

  • @JesúsLópezLópez-u6q
    @JesúsLópezLópez-u6q 6 месяцев назад

    we got OpenAI 2 before GTA 6

  • @G.P.V-p6o
    @G.P.V-p6o 6 месяцев назад

    Lo simple es bello (Occam): Q* es A* con guiado por razonamiento.

  • @2024endYou
    @2024endYou 6 месяцев назад

    A mi, todo esto que comentas se me parece más a añadir un nivel más de heurísticos (el cálculo de los pensamientos) que a tener verdadero razonamiento. El razonamiento implica siempre dos cosas: Tener en todo momento N espacios de soluciones posibles activos y Un algoritmo para navegar por ese espacio de soluciones posibles. Este Q* no aborda ninguno de estas dos cosas. Me parece que será otro buen truco de magia que se añadirá a GPT4 para crear un buscador mejor, pero no un sistema que razone.

    • @gabrielalejandromarturano8761
      @gabrielalejandromarturano8761 6 месяцев назад

      Coincido . Creo que el proceso de razonamiento requiere ir por otra via . ¿ Cuál ? Eso debería discutirse en un foro de brain storming ...

  • @omark.8755
    @omark.8755 6 месяцев назад +1

    la explicación de STaR es incorrecta, las anwers que utiliza para rehacer el texto no son los que ella da, los da el propio dataset de entrenamiento, lo único que da es el razonamiento, por eso está en rojo!

    • @DotCSV
      @DotCSV  6 месяцев назад +2

      No, es correcta. El color azul indica qué información está presente en el dataset y el rojo la exclusivamente generada por el modelo. Pero el modelo también genera su propia respuesta en cada iteración, y es con esa respuesta (y^) con lo que se decide qué camino tomar (se evalúa si y=y^). En el apartado 1 y en el 3.1 lo explican:
      "To overcome this issue, we propose rationalization: for each problem that the model fails to answer correctly [es decir, que no responde bien y /= y^] we generate a new rationale by providing the model with the correct answer"

    • @yamilonetto9136
      @yamilonetto9136 6 месяцев назад +1

      Te respondieron

  • @julioDazaDev
    @julioDazaDev 6 месяцев назад

    Min 50: Revelado el secreto del exito de OpenAi... No les diré! Vayan a ver!

  • @ArribaPeru2012
    @ArribaPeru2012 6 месяцев назад

    La misma estrategia de nuestro aprendizaje...

  • @enriquecatalaortega3938
    @enriquecatalaortega3938 5 месяцев назад

    en otros vídeos decían que salía hoy ChatGPT Q*, ¿Sabes algo?

  • @sniperdaoud
    @sniperdaoud 6 месяцев назад

    buen contenido, pero muy largo, tienes que resumirlomun poco 🤷‍♂️, animo