¡Nuevo NEMOTRON 70B! ¿Es el modelo de NVIDIA mejor que GPT-4o?

Поделиться
HTML-код
  • Опубликовано: 30 ноя 2024

Комментарии • 122

  • @DotCSVLab
    @DotCSVLab  Месяц назад +3

    🔴 SUSCRÍBETE PARA MÁS NOTICIAS Y TUTORIALES DE IA SEMANALES! :)

    • @elmegapeluco
      @elmegapeluco Месяц назад +5

      Como se que "te gustan" las paraonoias tipo Mr.Tartaria. Te recomiendo que veas el video "Metatron vs Nemotron y los vestigios de una simulacion" 😅

  • @nachoeigu
    @nachoeigu Месяц назад +8

    Gracias por tu contenido, sos una referencia para muchos de nosotros. Tu forma de explicar las cosas es admirable. Seguí asi, saludos de Argentina!!!

    • @DelRioPrimo
      @DelRioPrimo Месяц назад

      Es muuuuuuuuuuy bueno el cabrón

  • @snake1987666
    @snake1987666 Месяц назад +16

    genial, justo estaba buscando un modelo que encontrara las R en Strawberry

    • @LA.GALERNA
      @LA.GALERNA Месяц назад

      El mejor comentario del vídeo. Tienes mis 10

    • @joelcoll4034
      @joelcoll4034 Месяц назад

      Yo no se que mania con ese prompt, si es un tarea concreta que a los LLM les cuesta mucho por la manera que esan construidos, no tiene sentido obsesionarse con que resuelvan esa tarea

    • @CagliostroML
      @CagliostroML Месяц назад

      @@joelcoll4034 La gracia es solventar el problema derivado de la tokenización haciendo que los LLM tengan un pensamiento lógico coherente que les permita resolver problemas out of the box.

  • @JosemaríaVargas-j3h
    @JosemaríaVargas-j3h Месяц назад +50

    DotCSV, por favor, supera lo de Reflection 70b. A todos nos engañaron. 🥺

    • @nekosmic
      @nekosmic Месяц назад +4

      XD

    • @mompoxinoennyc
      @mompoxinoennyc Месяц назад +1

      Hahahahaha, quien puede superar eso, alguien sabe de la vida del susodicho? Olvide su cuenta de x.

    • @jhonnypolitica5495
      @jhonnypolitica5495 Месяц назад

      @@nekosmic
      _Desde__#PureTuber_

    • @wairyhu
      @wairyhu Месяц назад

      a pesar de no ser basado en llama sino cloude. Si mejoraba en cierto grado el modelo. por eso hacia ruido mediatico

  • @Redranddd
    @Redranddd Месяц назад +3

    10:49 es interesante que tenga la misma alucinación con el mismo problema que cuando usaste reflection

  • @MataSessions
    @MataSessions Месяц назад +1

    Qué buena evaluación y tan clara explicación Carlos, gracias y saludos desde México!

  • @RequiemForPAIN
    @RequiemForPAIN Месяц назад +42

    Creo que hay que tratar de evitar confusiones que puede tener la gente aquí. Estos prompts sobre cosas de física un LM no las puede razonar, sólo trata de encajar los razonamientos que ha leído. Sin un modelo del mundo esos conceptos físicos no significan nada; "pelota", "gravedad", "termodinámica", "tiempo". Al calcular la probabilidad de aparición del siguiente token, colocará esas palabras en un contexto de alta probabilidad según el texto con el que se ha entrenado. Es como si hiciésemos esas preguntas a un ser humano que haya pasado toda su vida en la cárcel leyendo libros y jamás haya experimentado las cosas en la vida real. Tenderá a buscar lo que más se parezca dentro de lo que haya leído, sin saber de qué está hablando. Para que un modelo pueda de verdad razonar y usar la lógica ("si A, entonces B"), necesita pensar dentro de la dimensión temporal y tener ojos para las otras tres dimensiones. Un modelo de visión que tokenice imágenes como frames.

    • @xavierv323
      @xavierv323 Месяц назад +1

      grande

    • @octaviusp
      @octaviusp Месяц назад +7

      Por un lado tenes razòn, pero hay una teoria de representacion universal como lo explica Ilya Sutskever en su conversacion con Jensen Huang. El texto es una representación del mundo, pero sabemos que no la es toda. La vision es otra representaciòn que algunos dicen que es mas enriquecedora que el texto. Luego hay otra dimension que es el sonido, todas son distintas representaciones. Ilya dice que si bien el texto es una representacion media pobre del mundo, al escalarlo dramaticamente a trillones de textos, la representacion mejora sustancialmente. Aun asi, con avances en los VLMs, se busca armar la mejor representacion posible combinando vision y lenguaje, para luego sumarle audio, que tambien aporta informacon (quizas menos relevante que audio/texto) y probablemente en un futuro mas, como tacto, olfato, etc. Por lo tanto, tenes razon, pero si aumentamos dramaticamente la exposicion a texto se puede sacar un entendimiento de cosas fisicas.

    • @apartplage
      @apartplage Месяц назад +1

      Aquí el problema es que de física real se sabe poco por no decir nada. Sabemos medir pero no acertar la causa, el porqué. La misma apariencia engaña por lo que los fundamentos están también escondidos a los sentidos. El si A entonces B es solo una condición causa efecto pero no da a entender el porqué que es donde la humanidad falla

    • @RequiemForPAIN
      @RequiemForPAIN Месяц назад +4

      @@octaviusp Es un buen punto. Es evidente por los resultados que la abstracción de los conceptos mejora al escalar el modelo. La proporción de veces que coloca una palabra correctamente dentro de un razonamiento aumenta con la exposición a esa palabra durante el entrenamiento, eso no lo puedo negar. Ahora, yo creo que la mayoría de la gente prueba estos prompts pensando que la capacidad de abstracción del modelo implica que puede visualizar/imaginar objetos boca arriba o boca abajo, dentro o fuera de algo, o distintos estados de la materia y la velocidad a la que cambian, cosas que le permitirían desarrollar el razonamiento lógico para resolver el puzle mediante el método científico (observas->predices->verificas). Pero cuando el modelo dice "no le da tiempo a congelarse el agua de un vaso en 5 segundos", está hablando de oídas y acertando por tirarse un triple, no lo puede saber ni por experiencia empírica (visual) ni tampoco por haber calculado la tasa de transferencia calórica de 300ml a -18ºC (matemáticas). Creo que hacer esta distinción es importante porque se supone que queremos hacer en el futuro modelos que puedan desarrollar nueva ciencia, y para seguir el método científico necesitas abstraer un modelo global, aunque sea matemático y no empírico. Si un modelo se basa sólo en lo que otros han dicho, lo máximo que va a poder hacer son metaestudios referenciales.

    • @hannibal8049
      @hannibal8049 Месяц назад +2

      Totalmente erróneo. Escucha a Ilya hablar sobre éste tema; la habilidad para predecir el siguiente token permite entender y razonar por parte del modelo que lo predice, igual que el cerebro humano. Que sea un "papagallo estocástico" no quita que no razone en el mismo modo que el cerebro.

  • @maxizavi6520
    @maxizavi6520 Месяц назад +5

    Podrias chequearte los nuevos modelos de Ministral? estuve probando el 8B y me sorprendió lo genial que razona, al menos 9 de cada 10 preguntas acierta. Quiero imaginar que lo han mejorado a traves de COT. Saludos

    • @jossejosse952
      @jossejosse952 Месяц назад

      Ministral? O el modelo pixtral? Mala suerte para mi de no encontrarlos cuantizados.

  • @LuisRodriguezdz
    @LuisRodriguezdz Месяц назад

    Gracias por el video Carlos!

  • @iker1234567
    @iker1234567 Месяц назад +4

    Carlos podrias comentar algo sobre Llama3.2?

  • @jackgaleras
    @jackgaleras Месяц назад

    hola, gracias por el video

  • @okamiBoom
    @okamiBoom Месяц назад +1

    9:24 yo pense que la ia estaba mal pero creo que salio mas lista que yo 😭😭😭😭😭😭😭😭

  • @elquenoaplica3975
    @elquenoaplica3975 Месяц назад

    Puedes hacer un video que resuma consultas ideales para medir rapidez, efectividad y asertividad de un modelo. Eres un master siempre aprendiendo contigo.

  • @pasmoluiso
    @pasmoluiso Месяц назад +1

    ¿Qué herramienta usas para que el puntero se vea así?

  • @RandallMadrigal
    @RandallMadrigal Месяц назад +3

    El giro del vaso de 180º en cual eje porque depende de eso, la respuesta es correcta o incorrecta.

    • @DotCSVLab
      @DotCSVLab  Месяц назад +4

      El prompt indica que se gira 180° para dejarlo boca abajo.

  • @qVision_dev
    @qVision_dev Месяц назад

    Podrías hacer uno de entrenar este tipo de modelos para que, por ejemplo, sean muy buenos leyendo documentos en una carpeta? Algo similar a lo que promete Apple Intelligence. Muchas gracias ☺️

  • @CarlosOrzabal
    @CarlosOrzabal Месяц назад +1

    La verdad que viniendo de Nvidia, uno esperaría algo de alta calidad, no un modelo "maquillado". Músculo de hardware tienen de sobra para sacar algo asombroso o por lo menos muy bueno.

  • @omarnug
    @omarnug Месяц назад +1

    8:40 por cierto que después de desaparecer durante un mes, los de reflection reaparecieron diciendo que volvieron a probar y que sí, bueno... Algo servía pero que no era para tanto y bla bla. Todo menos aceptar que intentaron engañar a todo el mundo xD

  • @OfficialYoutubeAlgorithm
    @OfficialYoutubeAlgorithm Месяц назад +1

    Qué haces en esa casa con esa ventana?
    Yo pensaba que DOT existía en un espacio confinado a la habitación esa del ordenador con los leds, se ve que la IA que lo procesa cada día es más puntera😂🙏

  • @Muferchus
    @Muferchus Месяц назад +9

    Totalmente de acuerdo. Estas comparaciones resultan tan poco interesantes porque los casos de prueba no tienen nada que ver con la realidad... nadie hace eso con los LLM, no tiene sentido testearlos así. Es como ponerse a hacer ruido con el motor de una moto en una esquina.

    • @joelcoll4034
      @joelcoll4034 Месяц назад +2

      Nadie los usa para eso porque se les da mal hacerlo

  • @EduardoAndersonRivasSalas
    @EduardoAndersonRivasSalas Месяц назад +3

    Acabo de probar y la pelota si se queda en vaso XD

  • @xelcj7457
    @xelcj7457 Месяц назад

    Esooooooo más dotcsvvv

  • @fernandodiaz8231
    @fernandodiaz8231 28 дней назад

    Te agradecería si puedes elaborar un video empleando la API de Nemotron 70B.

  • @YoutubeUserl0l0
    @YoutubeUserl0l0 Месяц назад

    Creo que cuando dices "girar 180 grados" algunas IAs lo interpretan como girar sobre su propio eje no voltear.

  • @LUISANGEL27
    @LUISANGEL27 Месяц назад

    Pero nvidia explica algo sobre como lo logró? Seria interesante un vídeo sobre eso

  • @Electronic_Cats
    @Electronic_Cats 16 дней назад

    Holaa. Yo lo he estado usando pero en un momento dado de la conversacion se le fue la pinza diciendo sinsentidos todo el rato, y tuve que abrir otro chat

  • @MaximoPower2024
    @MaximoPower2024 Месяц назад +4

    El problema es que la mayoría de textos realizados por humanos que parecen un razonamiento lógico son en realidad racionalizaciones de conclusiones previas.
    Estos modelos imitan esta dinámica, pero con más torpeza a la hora de intuir la conclusión que luego tratarán de justificar.

    • @hannibal8049
      @hannibal8049 Месяц назад +2

      Es exactamente lo mismo que hacen nuestros cerebros cuando experimentan y modelan la realidad

  • @alexandergr203
    @alexandergr203 Месяц назад +2

    9:25 yo no soy una ia y me equivoqué. Ahora dudo que en verdad exista.

  • @airdany
    @airdany Месяц назад +2

    Que el nuevo O1, no resuelva el último prompt menuda decepción ¿no?

  • @jribesc
    @jribesc Месяц назад

    Gracias !!!!

  • @musxav
    @musxav Месяц назад +6

    No me convencé la pregunta de la taza y el giro de 180º, lo primero que pienso cuando dices giro es coger por el asa y girar la taza, un giro por su base, el asa estara 180º cambiada de sitio, si hubieras dicho giro vertical o por su eje y, entonces se entiende que quieres volcar la taza, por lo que para mi es ambiguo que de el resultado que quieres.

    • @HectorSs-qs4wu
      @HectorSs-qs4wu Месяц назад +2

      Si,esos test me parecen la mayoria de las veces ambiguos y da lugar al error.

    • @yaelsoto2742
      @yaelsoto2742 Месяц назад +4

      Es muy muy cierto eso!. Los modelos no entienden a que giro se refiere y despliegan varios escenarios posibles de una sola palabra 👌🏻

    • @DotCSVLab
      @DotCSVLab  Месяц назад +3

      El prompt indica que se gira lentamente 180° boca abajo, no da lugar a mucha ambigüedad.

    • @facundogoiriz7323
      @facundogoiriz7323 Месяц назад

      @@DotCSVLab Es ambiguo

    • @musxav
      @musxav Месяц назад

      @@DotCSVLab si es así, perdón que no lo había entendido así.

  • @cosmicogeek9561
    @cosmicogeek9561 Месяц назад

    Disculpa el link para ver el nuevo modelo

  • @kahoz5
    @kahoz5 Месяц назад +2

    me parece que la información actual que se les da a los LLMs es muy sesgada con tanto poder de procesamiento las preguntas deberían tener mucha más información sobre los objetos quizá eso ayude a dar respuestas más acertadas 🤔

  • @exxteban1
    @exxteban1 Месяц назад +1

    Solo que para ejecutar eso hay que tener una muy buena pc, mucha ram y buena gpu

  • @davidvalencia6256
    @davidvalencia6256 Месяц назад +2

    Hay gente que ya está usando esos modelos 70b utilizando APUs potentes junto a 128 gb de ram DDR5

    • @yaelsoto2742
      @yaelsoto2742 Месяц назад +2

      Apus??? Y que modelos son? Por que esas Normalmente tienen una potencia limitada al ser de laptops 🤔🤔

  • @Padr3Maldito
    @Padr3Maldito Месяц назад +1

    NotebookLM en su ultima actualización ya produce postcats en español. En configuracion de podcast solo hay que añadir despues de parta que audiencia esta dirigido(por ejemplo) EL podcast ha de ser en español de españa.

  • @Lv7-L30N
    @Lv7-L30N Месяц назад

    gracias joven

  • @hsin-jochangvivas5356
    @hsin-jochangvivas5356 Месяц назад

    Haz un video sobre llama3.1 405b

  • @lui_sam2324
    @lui_sam2324 Месяц назад +1

    El amigo de Carlos creador de Reflexion 70B ha conseguido que Nvidia entrene su modelo
    Es la unica conclusión a la que puedo llegar conociendo lo exquisito que es DOTCSV al escoger sus temas y al repetir dos veces que se parece mucho
    Que les parece mi hipotesis?

    • @lui_sam2324
      @lui_sam2324 Месяц назад +2

      un me gusta de Carlos y confirmamos😜

  • @Carlos_Not_A_NPC
    @Carlos_Not_A_NPC Месяц назад

    Dot, ya han pasado varios meses, el accidente no fue tu culpa, tienes que dejarlo ir(a Reflection 70b) xd

  • @Darporal
    @Darporal Месяц назад

    Memotron... Jejeje tiene el nombre que se le daría a un robot en una película de los años 80

  • @alex_saenz
    @alex_saenz Месяц назад +1

    En el fondo, esto es realmente mas de lo mismo.

  • @RelatosdeRiqueza
    @RelatosdeRiqueza Месяц назад

    ¿Será el Nemotron 70B realmente mejor que GPT-4o?

  • @fuzzydark1395
    @fuzzydark1395 Месяц назад +29

    Lo importante no es si rinde como GPT-4 o mejor, sino si tiene mejor capacidad de "razonamiento" que GPT-o1...

    • @triplej3053
      @triplej3053 Месяц назад +10

      No, no es su arquitectura, no es su objetivo. No puede.

    • @torrusoGHF
      @torrusoGHF Месяц назад +3

      Un sistema de razonamiento funcionará mejor con un modelo de lenguaje superior, uno da el contexto, el otro lo maneja para realizar tareas complejas.

    • @LuccaCedeño-p7m
      @LuccaCedeño-p7m Месяц назад +1

      @@torrusoGHFno se trata de más parámetros

    • @patojp3363
      @patojp3363 Месяц назад +2

      ​​@@triplej3053cualquier modelo que superé a gpt4 puede mejorar lo que hace GPT o1. GPT o1 es un sistema de multiagentes que se ponen a sacar concluciones y corregirse entre ellos hasta llegar a una respuesta "razonable". Ese es el famoso razonamiento detras de GPT o1

    • @triplej3053
      @triplej3053 Месяц назад +1

      Y por eso digo que no puede superar a o1. "Nemotron-1" quien sabe. Hay demasiados escenarios a considerar. Pero la comparacion es gpt4 vs o1 en "razonamiento".

  • @elpollittocientifico8038
    @elpollittocientifico8038 Месяц назад

    Vamoooooooo

  • @wairyhu
    @wairyhu Месяц назад

    acaso no sacaron la versión llama 3.2? no la mencionaste ni comparaste

    • @DotCSVLab
      @DotCSVLab  Месяц назад +2

      Llama 3.2 en texto rinde igual que la 3.1, la nueva versión sólo incorpora capacidades multimodales.

    • @wairyhu
      @wairyhu Месяц назад

      @@DotCSVLab aaaaah muchas gracias

  • @christianruiz8659
    @christianruiz8659 Месяц назад +4

    🎯 Key points for quick navigation:
    00:00:00 *🆕 Introducción del nuevo modelo Nemotron 70B*
    - NVIDIA ha lanzado un nuevo modelo de lenguaje, Nemotron 70B, que podría superar a GPT-4 y otros modelos,
    - Se mencionan los antecedentes del modelo, con mejoras significativas en rendimiento y disponibilidad en Hugging Face.
    00:01:13 *📊 Comparación de Nemotron 70B con otros modelos*
    - Nemotron 70B supera en benchmarks clave al modelo Llama 3.1 de Meta,
    - Comparación en tres benchmarks: Arena Hard, Alpaca Eval, y MT Bench con resultados impresionantes.
    00:03:30 *🔍 Detalles técnicos y limitaciones del modelo*
    - Aunque destaca en tareas generales, Nemotron no está afinado para dominios específicos como matemáticas y programación,
    - No es un "State of the Art" absoluto, pero se presenta como un modelo excelente para usos generales.
    00:05:07 *🖥️ Uso y descarga del modelo Nemotron 70B*
    - Se explica cómo acceder y probar el modelo en plataformas como Hugging Face y LM Studio,
    - El modelo está disponible en versiones más ligeras para hardware menos potente.
    00:07:00 *🧠 Ejemplos prácticos y pruebas de razonamiento*
    - Se realizan pruebas comparativas entre Nemotron y Llama 3.1 en tareas de procesamiento de palabras y lógica básica,
    - Nemotron muestra un rendimiento superior en la mayoría de las pruebas, aunque aún comete algunos errores.
    00:09:07 *🎯 Problemas de razonamiento y comparación con otros modelos*
    - Comparación de Nemotron con GPT-4 y otros modelos privados en problemas complejos de lógica y razonamiento,
    - Se observan fallos en el razonamiento físico en varios modelos, pero Nemotron destaca en algunas áreas.
    00:15:41 *🚀 Conclusiones sobre Nemotron 70B*
    - Aunque no supera a GPT-4 en todas las áreas, Nemotron 70B es un modelo open-source potente y versátil para tareas generales,
    - Su potencial de post-entrenamiento lo convierte en una herramienta valiosa para la comunidad.
    Made with HARPA AI

  • @MariaJuanaFernandezGarcia
    @MariaJuanaFernandezGarcia Месяц назад

    Es para reflexion ar 😎

  • @davidmc3270
    @davidmc3270 Месяц назад +2

    Puedes hacer un tutorial de como descargarlo e instalarlo en la computadora por favor?

    • @maxizavi6520
      @maxizavi6520 Месяц назад +3

      Si tenés más de 34 GB de VRAM o ram lo podes descargar desde lm studio

    • @Josman-ih3mz
      @Josman-ih3mz Месяц назад

      ​@@maxizavi6520es la capacidad de la tarjeta de video?

    • @andresmsuarez5718
      @andresmsuarez5718 Месяц назад

      @@maxizavi6520 ahi mi madre yo que me compre una de 16gb rtx 4070 jahhaha y mira eso.

  • @georgetorres1535
    @georgetorres1535 Месяц назад

    Uy me imagino el 405b

  • @carlosrivadulla8903
    @carlosrivadulla8903 Месяц назад

    no veo justo para el modelo que se le diga que gire el vaso 180º sin especificarle el eje de rotación

  • @JulianLasso
    @JulianLasso Месяц назад +1

    Carlos, pregunta, pero entonces este modelo de 75Gb, si correría en una MacStudio de 192Gb de RAM y correría como si nada, verdad?

    • @angellpichuuxd
      @angellpichuuxd Месяц назад +1

      Entiendo que lo vas a cargar en CPU, te va a consumir algo mas se 150GB, quizá con suerte tebconteste a 10 token por segundo, aunque si tienes el equipo prueba y comentas acá.

    • @JulianLasso
      @JulianLasso Месяц назад

      @@angellpichuuxd Gracias por tu ayuda, te cuento que he hecho pruebas en equipos de 32Gb de RAM (M3) cargando modelos de 20Gb y el punto no es la RAM, que lógicamente marca el tema de capacidad, sino que no es lento en lo absoluto, de hecho se equipara con las tarjetas de vídeo de nVidia en temas de velocidad de respuesta, es por eso que me da curiosidad en preguntar "y si me compro una Mac Studio con 192Gb de RAM?", ahora sí me comprendes?
      O tienes quizás alguna experiencia en correr estos modelos en esas máquinas?
      Sé que la "RAM" en los chips de Apple se comparte con lo que sería la "VRAM", entonces por eso mi pregunta

    • @izkopz
      @izkopz Месяц назад

      @@angellpichuuxd que hardware crees que sea necesario para poder correrlo, digamos de forma usable?

  • @eliasfarias3670
    @eliasfarias3670 Месяц назад

    Reflexion 2.0 jajaja

  • @DisociacionSinComplejos
    @DisociacionSinComplejos Месяц назад

    En el segundo ejemplo, el que está errado eres tú, no la IA.
    Porque al decir 9,11 o 9,9; No estas explicando el factor del decimal. Es como decir -El cuadro tiene 9.11 milímetros, y el otro 9.9 ¿Cuál es más grande? La respuesta es 9.11 por 2 milímetros.

  • @yoverale
    @yoverale 24 дня назад

    O sea es un modelo para preguntarle boludeces y que las razone muy bien, entendido 😂

  • @alfredoramirez8336
    @alfredoramirez8336 Месяц назад

    La respuesta de chatgpt jajaja
    Te quedan tres plátanos. Si tenías cinco y ayer te comiste dos, restas 5 - 2, lo que da 3.

  • @lonewolf5606
    @lonewolf5606 Месяц назад

    Y que responde a este promt : Si un tren va de Madrid a Barcelona a una velocidad de 280 km, hay 5 paradas las cuales duran 5 min cada una, cuántos años tiene el abuelo del conductor?

    • @OfficialYoutubeAlgorithm
      @OfficialYoutubeAlgorithm Месяц назад

      "Si un tren va de Madrid a Barcelona a una velocidad de 280 km, hay 5 paradas las cuales duran 5 min cada una, cuántos años tiene el abuelo del conductor?":
      ---------
      Este tipo de pregunta es un clásico ejemplo de humor en el que la conclusión no puede derivarse de la información proporcionada. Aunque nos hablas de la velocidad del tren, el número de paradas y su duración, esos datos no están relacionados de ninguna manera con la edad del abuelo del conductor.
      Es simplemente una broma para resaltar lo absurdo de intentar resolver una pregunta que no tiene ninguna conexión lógica con los datos presentados.
      (Vaya mierda yo me esperaba que dijer 87 o algo así)

  • @malexandersalazar
    @malexandersalazar Месяц назад

    Open Access, no Open Source.

  • @DOOM202-4
    @DOOM202-4 Месяц назад +2

    Gracias por el spoiler xdxdxd

  • @PappuChad
    @PappuChad Месяц назад

    Lo que se logra con horas gpu infinitas jajaja

  • @Cosascuriosas-y1j
    @Cosascuriosas-y1j Месяц назад

    Spoiler no

  • @KerbalBasado
    @KerbalBasado Месяц назад

    Lo estuve trasteando y estoy un poco decepcionado. Comete algunos errores logicos, olvida detalles si la conversación se vuelve muy larga(+15 interacciones), muchas veces hace respuestas family friendly con respecto a las politicas de Meta AI.
    A pesar de hablar Inglés y español a la perfección, tardó 5 interacciones para entender el chiste detras del apodo del fundador de Facebook Mark Suckerverga.

  • @sleipnirish1
    @sleipnirish1 Месяц назад

    pura envidia

  • @lucasgauto4402
    @lucasgauto4402 Месяц назад

    Tercer comentario (?