Introducción y Contexto - 00:00:00 Análisis de la Noticia: Llama 3.1 - 00:01:08 Ventajas de los Modelos Llama - 00:02:09 Actualización: Llama 3.1 y Modelos Previos - 00:08:57 Comparación de Capacidades de los Modelos - 00:12:26 Entrenamiento y Escala Chinchilla - 00:15:07 Desafíos y Ventajas del Modelo 405B - 00:21:04 Capacidades de Programación y Razonamiento - 00:25:34 Técnicas de Destilación y Datos Sintéticos - 00:35:35 Evaluación del Modelo y Resultados de Benchmarks - 00:45:05 Regulación y Acceso a Modelos Multimodales - 00:50:13 Demostración en Groq - 00:55:06 Conclusiones y Cierre - 01:00:36
Incluso aunque hoy mismo se detuviera el lanzamiento de modelos LLM OpenSource, disponer de un modelo libre equivalente a un ChatGPT-4 es algo impresionante.
00:00 📰 Introducción y contexto del video - Introducción al evento y el anuncio, - Meta ha liberado un nuevo modelo que cambia el panorama de los modelos de lenguaje, - Se dará un análisis sobre el modelo Llama 3.1, su importancia y características. 02:18 🦙 Explicación de la familia de modelos Llama - Llama es una familia de modelos de lenguaje, - La licencia permisiva para uso comercial desde Llama 2, - Importancia de los modelos Open Source y las limitaciones de hardware. 05:33 📊 Detalles técnicos y ventajas de Llama 3 - Salida de Llama 3 y sus mejoras sobre Llama 2, - Entrenamiento ineficiente pero optimizado computacionalmente, - Compresión de datos para ahorrar recursos y mejorar la accesibilidad. 08:51 💡 Novedades de Llama 3.1 y su accesibilidad - Anuncio de Llama 3.1 y nuevos modelos con tamaños diferentes, - Importancia de actualizaciones y benchmarking en IA, - Modelo grande difícil de acceder pero retos de compresión de modelos. 13:01 🌐 Capacidad de los modelos y comparación con comerciales - Incremento en la ventana de contexto a 128,000 tokens, - Rendimiento y comparación con modelos comerciales (GPT-4, Claude 3.5), - Meta posicionándose con fuerte competencia en modelos Open Source. 17:39 🏢 Ecosistema y adaptabilidad de Llama 3.1 - Impacto en el modelo de negocio de compañías de IA como OpenAI, - Ecosistema preparado con socios como AWS, Nvidia, y Google Cloud, - Preparación y disponibilidad para uso empresarial y académico. 58:57 🧩 Comparación y pruebas de razonamiento de modelos IA - Comparación entre la capacidad de razonamiento de diferentes modelos de IA, - Llama 3.1 falla en una pregunta simple de razonamiento comparado con otros modelos como ChatGPT 3.5, - Importancia de pruebas reales y no solo benchmarks. 01:00:00 🦙 Beneficios y futuro de Llama 3.1 - Llama 3.1 representa un avance significativo con mejoras en contexto y capacidades, - Modelos destilados más eficientes que siguen siendo open source, - Meta promete futuros modelos multimodales y ya está trabajando en Llama 4, - Meta está publicando nuevos modelos a un ritmo más rápido comparado con OpenAI.
Lo más gracioso es que en las respuestas del acertijo de las plumas y el plomo, el modelo llama3 8b ACIERTA y los grandes no. No se dio cuenta nuestro querido Carlos...
Porque KIlogramo es masa y no peso... y la pregunta es un poco a pillar, salvo que seas un autentico español y sepas que kilo me refiero a peso. Eso creo yo.
@@aljvangoohable La única diferencia entre peso y masa es que se multiplica por la aceleración gravitacional de donde se mida. 9.81 en la tierra. La proporción no cambia. Es como medir el agua en peso en lugar de volumen, da lo mismo.
la probe en wassap , realmente encuentro que sus temas son mas naturales y mas correctas . En especial en temas complejos donde las oras IA se nota que nopueden opinar , deben poner temas soo hacia un lado o simplemente se complica..
El tema regulación, Europa, twitt con intento de presión y Lobby y cuál es nuestro papel, no puede estar mejor explicado, con implicación pero con distancia, sin caer en populismos y sin tratar de influir. Increíble, de verdad, me quito el sombrero.
como alguien que critico tiempo atras los videos de 2 horas para digerir algunas novedades, ver este de 1 hora si bien sigue siendo un monton, ya es mucho mas digerible! en hora buena por el trabajo! muy prometedor lo que propone Meta
Una hora o dos horas o más no importan. La información de este canal siempre es oro puro en el campo de inteligencia artificial, desde antes que apareciera chatgpt en 2022 ya este canal nos anticipo una idea de todo lo que estaba por llegar, la revolución que iba a significar, y tal cual profesia todo se ha ido cumpliendo. Definitivamente va a valer siempre la pena ver lo que se publica aqui.
@@waltercontacto8732 Son las normas de la Unión Europea. Tenés que ir a Bruselas, Bélgica, buscas el parlamento y preguntas una tal "Úrsula". Fuera de broma, son las normas de protección que impiden que en Europa tengan acceso a muchas aplicaciones, funcionalidades, muchas condiciones, etc. Me imaginaba que con sólo mencionarlo todos los que estamos aquí, en estos temas, conocíamos las restricciones legales, etc. Disculpas. El dueño del canal varías veces lo mencioné por encima desde hace años... Ojo. Los temas de ciberseguridad y garantías de la privacidad de la Unión Europea, también tienen sus cosas positivas. (En mí caso en particular también soy europeo, pero vivo en Argentina y tengo también la nacionalidad argentina. Dicho sea de paso, desde 2005 que de Inglaterra, España, Italia, Francia, Bélgica, etc. muchos se vienen a vivir aquí, a zonas como Córdoba, Mendoza, San Luis, Bariloche, también en BSAS, etc. Yo ni drogado me suben a un avión para volver a Europa y para ir a trabajar a USA. Lo que pasa es que, por ejemplo en España tienen muchos prejuicios; lo que en España dicen populismo, aquí son instituciones de defensa del consumidor, becas, créditos para construirte tu casa, etc. Pero en Argentina también hay gente con prejuicios y pasan gobiernos como los de Macri y MileI que roban y destruyen todo y en Europa se creen que es al revés. En lugar de reclamar justicia y que pongan presos a los "populistas" supuestamente ladrones, directamente son antiperonistas, cuando a nadie le importa si se es o no peronista. El que robó tiene que ir preso y listo sea del partido político que sea. Pero si es cierto que estamos pasando, todo el mundo, un tiempo de mucho odio por lo que dejó la pandemia, por las que me tiras de los medios (porque no hay justicia, si no, nadie le creería a la TV, que está toda paga para cualquier lado) A mí me pasó una mundial. Durante una conversación digo: ....che pero a Cristina Fernández de Kirchner no fue presa... Y el otro me dice, y porque tienen todo el dinero que robó para no ir presa.... A lo que respondo: ...pero entonces vos decís que los jueces se dejan corromper por dinero (eran los jueces camaristas y la corte suprema puesta por Macri).... La persona se me quedó mirando... ...se quería matar de la idiotez que había dicho de puro odio e ignorancia.... Pasa en todos lados... la gente no piensa y quiere recibir la noticia esperada, la que confirme que tiene la razón. Para mí el que robó tiene que devolver el dinero e ir preso; pero si no es así, si una persona incluso se juzga dos veces por la misma causa que para cualquier mono sabio en derecho sabe que es una aberración... Pero bueno... es un fenómeno mundial causado por las propias frustraciones, egos, odios e ignorancia... Fíjate Milei que hicieron votar, a los que aquí llaman "tilingos", por lo mismo y hoy se quieren matar con datos de la economía que son un desastre que de libertad hay mucha menos que antes, que hay más impuestos, que el presidente no está nunca en el país, siempre en viajes de lujo; mandando twitts siempre de aluviones relacionada con la ped*fília (no ped*stría como bien distinguen en España); y como es ladrón, traidor, delincuente, etc., etc., el "tilingo" no dice nada.... Nigún empresario argentino apoya ni apoya a Macri quién es quién puso a MileI porque todos saben que es otro sociopata... Pero fuera de esta loca coyuntura política mundial Argentina es el paraíso.
Sobre el tema de las regulaciones IA en Europa os recomiendo el video: RIA (Regulación Inteligencia Artificial) ¿Oportunidad o error histórico? | Rodolfo Tesone Menizabal
El directo bien. Pero la pregunta es la siguiente ¿para quién están hechos estos modelos? Resulta evidente que el común de los mortales no tiene 400 VRAM en su ordenador personal. Es más, los modelos pequeños tienen muy limitado su uso puesto que, precisamente, por ser modelos pequeños no funcionan ni de lejos con los tops de uso privado.
Apenas empiezo a ver el video pero no puedo esperar a tener un gtp 4o en local, quiero decir, uno que funcione hablando y que responda de la misma manera ya que me pareceria genial para mi pc.
el punto es en ves de enfocarnos al tema de código hay que voltear a ver lo físico es decir H A R D - W A R E que son los que nos limitan y por eso tenemos que pagar caro todo
Es una mezcla de ambos, por buen hardware que tengas si el coste de procesamiento de tu algoritmo crece de manera exponencial no llegaras a ningun lado. Por otro lado es mas barato mejorar el algoritmo que mejorar tan significativamente el hardware
Excelente el video, felicitaciones. ¿Será posible que en el futuro se pueda destilar y hacer fine-tuning de un modelo para dejarlo muy muy liviano y súper experto en un tema en particular? Por ejemplo, que sepa de historia española, pero no sepa nada de astronomía.
Para análisis de datos, incluso en una pequeña de 50 filas y 7 columnas no sirve. La sometí a prueba en repetidas ocasiones. Las alucinaciones que comete son tremendamente erróneas. No puede calcular la suma de una columnas por ejemplo cantidad. No te da respuestas analíticas correctas, como si lo dan otros como ChatGPT o Claude. Así que no se puede confiar del todo en estas herramientas con respecto a análisis de datos. Pero supongo que esto irá mejorando con el tiempo. Saludos!!
Hay una técnica de compresión muy interesante que se menciona en la serie Silicon Valley que surgió mientras desarrollaban el Flautista de Hamelin que era, obviamente, el sistema de compresión de archivos del protagonista grupo de programadores. Esperemos que pronto se llegue a un resultado que optimice el uso hogareño. ¿Por qué no pensar en una solución del tipo descentralizada P2P donde se comparta el contenido de los modelos entre los usuarios?
Carlos, la segunda vez que le preguntas el acertijo a la versión 8b la contesta de forma correcta. Cuando le preguntaste directamente por el acertijo. Pareciera claro que este problema se lo ha cruzado varias veces y con un sesgo hacia que pesa más 1kg de plomo o 1kg de plumas? O alenos hacia ahí le han puesto peso 59:20
Interesante como avanza de rápido la ia. Como tu dices, es sorprendente la rapidez con la que responde Groq. La pregunta es si , cuando la robótica avance lo suficiente, más la IA, hara que sustituyan a millones de puestos de trabajos. No sé si me gusta el panorama futuro la verdad.
empledos que no necesitan sueldo y que no necesitan descansar simplemente es el sueño de todo empresario! el sueño de que el capitalismo sacara a millones de la pobreza terminara pues nadie obtendra una remuneracion por un trabajo para intercambiarlo por bienes y servicios! Dios que genial se ve el futuro! que lo saquen de una maldita vez asi el mundo se va a la mierda lo mas pronto posible!
Tu crees que la población mundial morirá de hambre? 😂😂, el reemplazo del trabajo es algo ya evidente y está por venir, de todas formas es un proceso y creeme que no será de la.noche a la mañana, inclusive ya hay agendas que determinan tener una renta vitalicia para todos, obvio que para esto la ia debe aún superar el gran dilema del hardware voluminoso y costoso además del consumo energético, en fin comprendo que te asuste pero es algo inevitable solo queda seguir en lo nuestro talvez nuestros hijos o nietos verán realmente el cambio.
@@latamtruth jajaja, espero que no nos muramos de hambre. El rollo es que esto va tan rápido que hay una mezcla de incertidumbre y curiosidad sobre lo que nos espera.
Me reía de las regulaciones Europeas, pero ahora están planeando regular la IA en México también. Tengo miedo. No sé a quién consultarán, pero estoy un 127.34% seguro de que será alguien que no sabe ni la diferencia entre bit y byte. Mucho menos como funciona la IA.
Sí lo más chistoso de todo esto es que Europa se supone qué es la "defensora de las libertades" y resulta que están siendo lo más opresores y los que más se dejan sobornar por lobbies con intereses espurios. Lo más chistoso de todo, es que Europa ya es a día de hoy una dictadura maquillada. Y obviamente que le van a poner "puertas al campo" lo han hecho con todo hoy día aquí ya se regula hasta el vuelo de una mosca. No les va a temblar el pulso a la hora de crear regulación tras regulación para hacer cada día la vida un poco más difícil a las personas de bien. Una tecnocracia al servicio de los poderes fácticos.
eso es relativo muchos dicen que para ellos Claude es mejor para programar Pero yo que he usado varios modelos en lineas generales Chat GPT 4o es mejor para varias cosas, a veces el problema no es como tal el generador, si no, que son las instrucciones dadas que muchas veces hay que ser muy especificos.
@@KARA-IA Los filtros de entrada y salida de ChatGPT 4o lo hacen impracticable en muchos casos. Y ni que decir de las habituales alucinaciones u olvidos del contexto. Hasta Gemini es mejor.
Hola Carlos a ver si me puedes contestar.... Estoy aprendiendo programación desde 0 tengo un GPT que me hace de tutor, y la verdad que me funciona muy bien, pero en ocasiones tengo algún error con el código (del tipo que que vez de poner corchetes en algo se me olvidan o pongo paréntesis o algo así) y el gpt no me lo capta.... Para esto cual dirías que es la mejor IA? Un saludo y muchas gracias!!
No entiendo cómo se puede limitar tecnología open source geográficamente en una región concreta. Te coges un avión a Marruecos, te descargas el modelo en un disco duro externo, te vuelves a casa y listo. Por no hablar de torrent, VPN, etc
El que liberen un modelo OS que prácticamente alcanza a GPT4 es la señal para que Open AI libere a su bestia número 5, Pero por las pinches elexiones, bueno esto se va a retrasar.
Tengo que probar alguna de mis automatizaciones con Llama3.1, aunque dudo que supere en eficiencia y rapidez a GPT-4o mini. Estos modelos gigantes hace tiempo que han perdido todo el sentido para aplicaciones prácticas.
Tengo una pregunta, al ser open source tambien se saltan las restricciones de los modelos cerrados? Me refiero a las censuras, porque en este caso, esto es un gran riesgo
lo entreno Facebook asi que si tiene censura, pero entrenandola puedes quitarsela. Asi que si, como todo en la vida, es un arma de doble filo, asi como un cuchillo que puede servir para apuñarlar o para cortar alimentos y prepararte una comida deliciosa.
He visto que responde mejor a la no censura la primera versión de llama 3, en este (el 3.1, por lo menos en el idioma español) si que me encuentro más restricciones, probado con los parámetros 8b.
@@jossejosse952 qué modelo para usar en español me recomendarías para que funcione mejor sin censura? y qué parámetros crees que son los idóneos para una RTX 3060 de 6gb de ram y un AMD Ryzen 7 5800H con Radeon Graphics, 3201 Mhz, 8 procesadores principales, 16 procesadores lógicos I. Te marco los modelos que he probado: dolphin 2.7 mistral 8x de 26gb. dolphin 2 2 yi model GGUF 20.66gb dolphin 2 9 llama3 256k GGUF 8.54gb dolphin 2 9 llama3 256k GGUF 4.69gb dolphin 2 2 1 mistral GGUF 7.70gb dolphin 2 7 mixtral 8x GGUF 32.23gb Meta Llama 3 Instruct de 8.54gb• dolphin 2 7 mixtra18x GGUF 26.44 GB Algunos me han ido mejor que otros, pero en general mi experiencia ha sido terriblemente mala, sin aprendizaje, no sigue mis prompts, repite los textos fácilmente y no ofrece variaciones, sin contar que muchas veces no lo optimizo para mi hardware y simplemente no arroja respuestas después de estar largos minutos cargando respuesta... :( Si pudieras orientarme un poco con tu experiencia o ayudarme a buscar información te estaría muy agradecido de veras. Un cordial saludo.
@@jossejosse952 Hola! ¿Serían tan amable de compartirme información o directrices para saber qué modelos son los mejores para usar en español y optimizado para mis recursos? Gráfica: RTX 3060 6GB VRAM AMD Ryzen 7 5800H with Radeon Graphics, 3201 Mhz, 8 procesadores principales, 16 procesadores lógicos Modelos que he probado pero que no me han dado buenos resultados, solo un par de chats han arrojado textos con potencial pero NO han funcionado para aprender de la conversación, responder a las solicitudes o no repetir textos de manera psicótica :( dolphin 2 2 yi model 20.66 GB dolphin 2 9 llama3 256k 8.54 GB dolphin 2 9 llama3 256k 4.69 GB dolphin 2 2 1 mistral 7.70 GB dolphin 2 7 mixtral 18x - 32.23 GB Meta Llama 3 Instruct - 8.54 GB dolphin 2 7 mixtra18x GGU | 26.44gb Cualquier consejo basado en la experiencia de investigación será enormemente agradecido
Hola carlos yo soy de latinoamerica y puede accesar a Meta IA y esta activo por default el modelo mas grande sin vpn por que antes entraba con una y el modelo mas grande tiene acceso a internet
Vivo en Latino américa y le pegunte a la IA que esta en Instagram y esta fue su respuesta: Un kilo de plumas y medio kilo de plomo no se pueden comparar en términos de peso, ya que la pregunta está formulada de manera incorrecta. Un kilo de plumas pesa 1 kilogramo. Medio kilo de plomo pesa 0,5 kilogramos. Entonces, un kilo de plumas pesa más que medio kilo de plomo. La confusión común detrás de esta pregunta es que la densidad del plomo es mucho mayor que la de las plumas, lo que significa que un kilogramo de plomo ocuparía mucho menos espacio que un kilogramo de plumas. Sin embargo, en términos de peso, un kilo de plumas y un kilo de plomo pesan lo mismo.
Carlos en las pruebas que hiciste el modelo 8B entrego la respuesta correcta, revisa el fotograma a partir de la linea de tiempo 59:14 y veras que el modelo respondió de forma acertada
Cuando el codigo de programacion producido por un llm es malo , a tratar de ejecutarlo y corregirlo la ia puede andar en circulos sin encontrar respuestas. Al final tuve que darle una pista importante para que recien funcionara el codigo, pero para ese punto el codigo ya era funcional y la ia solo agradecia y copiaba y pegaba el codigo que le di. El autoaprendizaje de la ia por propio conocimiento sintetico debe ser supervisado, no todo lo que produzca sera util y muchas veces se puede estancar y no salir de ahi
estamos hablando de cpu es muy complicado explicarlo o lo tengo que hacer con peras y manzana o que! que parte no se entiende que hay un problema en esas empresas que nos limitan (intel, amd y etc )
Preguntado en perplexity: Hola. ¿Qué pesa más? Un kilo de plumas o medio kilo de plomo? Answer ¡Hola! La respuesta a tu pregunta es bastante sencilla. Un kilo de plumas pesa más que medio kilo de plomo. Comparación de Pesos Un kilo de plumas: 1 kg Medio kilo de plomo: 0.5 kg Por lo tanto, un kilo de plumas (1 kg) es el doble de pesado que medio kilo de plomo (0.5 kg). ¡Es un buen ejemplo para recordar que el peso se mide en unidades y no en el material!
No les hagas caso, sí se puede tienes 144 VRAM, si todos estan en una misma placa de servidor, descarga la aplicación versión GGFU para que lo demás lo cargues a CPU, eso sí vas a necesitar 600 de RAM...
Por lo general yo uso la IA para programar. Llama 3.1 me parece aceptable, pero el campeón para programar sigue siendo Claude 3.5 Sonnet, seguido por ChatGPT 4o. También están blackbox y Phind, pero en mi opinión, los que he mencionado son los mejores.
simplemente no sacan la tenologia por que no les convienen y como son de forma natural monopolio pues se tiene que aguantar hasta que alguien poderoso salga y diga hasta aqui y vamos a convertir el hardware en open igual espero y entiendan la idea
Me está empezando a preocupar realmente estos modelos y todas las últimas novedades del último año. Mientras la mayoría dice "esto es lo peor que va a ser", "recién empieza, imaginate en unos años", "la mejora es exponencial", etc.etc.... y por todo lo que veo ... parece que en realidad esto no es el mínimo, parece que este es el punto MÁXIMO de esta tecnología y por eso no se pueden sacar tanta diferencia entre los modelos, por eso buscan nuevas formas como usar agentes, mixture of experts, etc ...
Amigo, Carlos cuando le haces esa pregunta de " que pesa mas un Kilogramo de... o medio de .... al utilizar la palabra kilogramo, confundes al modelo pues kilogramo es una unidad de masa y no de peso..... y el modelo internamente utilizará el concepto masa para ""razonar""...
Consulta alguien sabe si se puede descargar en LM Studio llama 3.1 de 8b o de 70b en un macbook m3 max? Y como funciona, se podra con 64gb para arriba?
lo que mas me preocupa de esas ideas de prohibir sacar modelos open de gran tamaño, es que esos modelos de gran tamaño hoy, que no se pueden correr en ordenadores de casa, mañana seran pequeños y se podran correr el los smartphones del futuro tal vez no tan lejano, con lo cual, determinar que es un modelo pequeño es algo dificil por el continuo y rapido avance que existe
Open source, en español código abierto, qué significa que cualquier programador puede modificar sus parámetros, lo cual puede mejorarlo para la comunidad. Esto es lo mejor que le puede haber pasado al mundo de la informática. Normalmente en los modelos cerrados, en el caso de la inteligencia artificial y también en el caso de cualquier programa o aplicación informática, tendrías que pasar por caja, cada vez que se publica una actualización o en su defecto un programa o aplicación. Sin embargo el hecho de que una comunidad, en este caso open source de código abierto, pueda modificar un programa, o como aquí se está nombrando una inteligencia artificial, le da mucha libertad a los usuarios, desde la ventaja en sus inicios de usar programas libres que cualquiera se lo puede descargar sin necesidad de pagar por ello, o incluso la libertad que le da a estos programadores de poder modificar y mejorar para esta comunidad. No significa por ello que todo de código abierto sea libre, por qué después eso puede sufrir unas modificaciones que el autor puede querer una recompensa por ello. Pero solo en esos casos y aún así es maravilloso.
Hola, ¿cómo podría entrenar LLama para funcionar como un asistente de Excel? Para que me ayude a construir formulas, resolver problemas, VBA... Gracias
El mundo debe cambiar y no someternos a limitaciones impuestas por intereses económicos. Es inaceptable que, por conveniencia monetaria, sigamos operando bajo restricciones que podrían ser superadas con la tecnología actual. Por ejemplo, es absurdo que no podamos crear un clúster de procesadores donde dos, tres, o más unidades trabajen juntas para procesar una única tarea. mientras gente se fije en redacciones si esta bien o esta mal eso no cambiara nada y seguiremos igual esperando en la cama que facebook venga y resuelva o google lo haga etc.
@@evelioguaperas te voy a contestar por que parece que debes tener como 14 años o 12 te explico para que tu pueda procesar cosas complejas requieres de cpu tu cpu que tu tines esta limitado solo imagina que si tu cpu que esta limitada juntas 10 cual seria tus resultados, para un tema de entrenamiendo de ia se requiero cpu en fin
@@gposoft Hermano, he hecho un master de Computación de Altas Prestaciones y un doctorado en Arquitectura de Computadores acelerando algoritmos de encriptación con computación paralela tanto en GPUs como en FPGAs. Sé de que hablo. La CPU que estoy usando ahora mismo es una AMD Ryzen 5 Pro 6650U con 6 cores (eso quiere decir que tiene 6 procesadores funcionando a la vez en entre 1 y 12 problemas porque tiene hyper threading). Ahora, si hiciera lo que dices para tener 10 funcionando a la vez podría comprarlas y usar OpenMPI para trabajar con computación distribuida, no me lo impide nadie. No lo haría porque es una tontería, pero a diferencia de tí yo si sé hacerlo. Pd: no te equivoques que ya tengo 15 añazos 😜
Hola. Hice el acertijo en grop 3.1 8b y la respuesta fue correcta. Pregunta: " ¿Qué pesa más? ¿Un kilo de plomo o medio kilo de plumas?" Respuesta:"Un kilo de plomo pesa más que medio kilo de plumas."
Volteale las plumas por el plomo y todo se sale de control: Una pregunta clásica! La respuesta es: un kilo de plumas pesa lo mismo que medio kilo de plomo. ¿Por qué? Porque la unidad de masa es el kilogramo (kg), y un kilo es igual a 1000 gramos. Así que: * Un kilo de plumas pesa 1000 gramos. * Medio kilo de plomo pesa 500 gramos, pero como queremos comparar con un kilo, multiplicamos por 2: 500 gramos x 2 = 1000 gramos. Ambos pesan lo mismo, 1000 gramos o 1 kilogramo. La diferencia está en su densidad y volumen. Un kilo de plumas ocuparía mucho más espacio que medio kilo de plomo, porque las plumas son muy ligeras y ocupan mucho espacio, mientras que el plomo es muy denso y pesado.
@@vintack-g8069 tienes toda la razón. Respuesta: " Una pregunta clásica! La respuesta es: medio kilo de plomo. Aunque un kilo de plumas puede tener un volumen considerable, su peso es muy bajo debido a la baja densidad de las plumas. En general, una pluma puede pesar alrededor de 0,05-0,1 gramos. Por otro lado, medio kilo de plomo es exactamente 500 gramos, que es un peso mucho más alto que el de un kilo de plumas. Así que, aunque un kilo de plumas puede ser más voluminoso, medio kilo de plomo pesa más. "
¿Qué pesa más? ¿Un kilo de plumas o un medio de kilo de plomo? Otra pregunta interesante! La respuesta es: un kilo de plumas pesa un kilo, y un medio kilo de plomo pesa... medio kilo. Aunque el plomo es mucho más denso que las plumas, la masa de un kilo de plumas es igual a la masa de un medio kilo de plomo. Sin embargo, debido a la diferencia en la densidad, el peso aparente es diferente. Un kilo de plumas ocupa un volumen grande y es muy ligero, mientras que un medio kilo de plomo ocupa un volumen pequeño y es muy pesado. Por lo tanto, aunque la masa es la misma, el peso aparente es diferente. En resumen, un kilo de plumas no pesa más que un medio kilo de plomo, pero el plomo parece más pesado debido a su mayor densidad.
Europa no para de meterse tiros en el pie, pues mientras aquí se regula, en otros países van a ser más competitivos. Está claro que Europa va en caída libre, y encima, ¿de qué sirve en una economía global? Solo para fastidiar a los europeos. Y si solo fuera esto, pero es que son muchas regulaciones. Está claro que Europa se está pudriendo con los malos gestores y la burocracia.
El modelo grande tal vez no es tanto mas grande, y por otro lado, las pruebs tal vez se estan quedando atras y se esta produciendo un efecto asi como de saturacion de las pruebas.
Este será mi último comentario, ya que puede ser complicado explicar algo que considero claro. Primero, respeto todas las opiniones y no quiero que piensen que soy radical como Maduro de Venezuela. Permítanme explicar el tema del CPU con una analogía: imaginen que tengo un coche que solo puede correr a 120 km/h. No puedo exigirle más porque esa es la velocidad máxima que la marca estableció. No tiene sentido buscar soluciones alternativas cuando la marca tiene la capacidad de aumentar esa velocidad para que el coche llegue más rápido. Sin embargo, la marca prefiere decirnos que debemos comprar el siguiente modelo para obtener mayor velocidad. ¿De qué estamos hablando aquí, de estrategias comerciales de empresas chinas o americanas? Saludos a todos y que tengan un buen día.
Ya los legisladores europeos ya estan un paso adelante viendo como regular el viaje en el tiempo y posteriormente los viajes intraesteleres . para colonizar otras civilizaciones extraterrestres😏😏
mientras las emprea como facebook que de echo respeto mucho por que hoy en dia ha echo mucho aporte open yo replantearia el contexto por que mientras uno batalla de mejoras o como optimizar cosas para que nos cueste mas barato mientras eso sucede amd y intel se ríen de nosotros incluyendo a Facebook por que cuenta con la tecnología hoy en dia pero no la sacan por que nos les conviene asi de simple entoces el plantiamiento seria como se puede competir primero con intel y amd en ves de andar sacrificando cosas saludos !
@@sacc19 Aunque respeto mucho a empresas como Facebook por sus importantes contribuciones al open source, replantearía el contexto actual. Mientras nos esforzamos por mejorar y optimizar procesos para reducir costos, empresas como AMD, Intel, e incluso Facebook, se benefician de la tecnología avanzada que poseen pero que no liberan al mercado porque no les resulta conveniente. En lugar de sacrificarnos y buscar soluciones de bajo costo, considero que el enfoque debería ser cómo podemos competir directamente con gigantes como Intel y AMD. Saludos, ahí esta pero lo comprendiste espero y aportes ideas y no burradas lo hice desde el phone y sin mi lentes revisando ahí esta la corrección y ya con eso se resolvió el tema principal
@@gposoftPara nada Intel y AMD no tienen buenas IAs, que mejor para ellos sacar una IA que aproveche muy bien sus chips y que eso se traduzca en mayor venta de sus dispositivos. Algo así como intentan hacer con las NPUs obligarte a comprar PCs con componentes especificos si quieres explotar el poder de las IAs Para bien o para mal la mejor IA generalista de cara al publico es ChatGPT 4o, que luego halla IAs para cosas super específicas para determinado tipo de cosas, es diferente. Por ejemplo, mayor poder computacional se traduce en mayor gasto de electricidad y las empresas siempre quieren ahorrar. Así que te aseguro que si quieren optimizar sus IAs a que trabajen mejor con poco gasto energético e igual potencia.
Introducción y Contexto - 00:00:00
Análisis de la Noticia: Llama 3.1 - 00:01:08
Ventajas de los Modelos Llama - 00:02:09
Actualización: Llama 3.1 y Modelos Previos - 00:08:57
Comparación de Capacidades de los Modelos - 00:12:26
Entrenamiento y Escala Chinchilla - 00:15:07
Desafíos y Ventajas del Modelo 405B - 00:21:04
Capacidades de Programación y Razonamiento - 00:25:34
Técnicas de Destilación y Datos Sintéticos - 00:35:35
Evaluación del Modelo y Resultados de Benchmarks - 00:45:05
Regulación y Acceso a Modelos Multimodales - 00:50:13
Demostración en Groq - 00:55:06
Conclusiones y Cierre - 01:00:36
héroe
Heroe
Igual es hecho con AI, no?
@@diegocardona8632 yes sir, i don't even understand Spanish
@@diegocardona8632 El usuario @user-qg8qc5qb9r es la IA de Meta que se ha creado un canal de YT
Incluso aunque hoy mismo se detuviera el lanzamiento de modelos LLM OpenSource, disponer de un modelo libre equivalente a un ChatGPT-4 es algo impresionante.
Hasta que suelten a GPT5 y lo deje tirado.
@@azhuransmx126seguiría siendo impresionante, la verdad. Gpt4 es útil por si solo.
@@azhuransmx126 Algo superior no quita que lo anterior siga sirviendo
00:00 📰 Introducción y contexto del video
- Introducción al evento y el anuncio,
- Meta ha liberado un nuevo modelo que cambia el panorama de los modelos de lenguaje,
- Se dará un análisis sobre el modelo Llama 3.1, su importancia y características.
02:18 🦙 Explicación de la familia de modelos Llama
- Llama es una familia de modelos de lenguaje,
- La licencia permisiva para uso comercial desde Llama 2,
- Importancia de los modelos Open Source y las limitaciones de hardware.
05:33 📊 Detalles técnicos y ventajas de Llama 3
- Salida de Llama 3 y sus mejoras sobre Llama 2,
- Entrenamiento ineficiente pero optimizado computacionalmente,
- Compresión de datos para ahorrar recursos y mejorar la accesibilidad.
08:51 💡 Novedades de Llama 3.1 y su accesibilidad
- Anuncio de Llama 3.1 y nuevos modelos con tamaños diferentes,
- Importancia de actualizaciones y benchmarking en IA,
- Modelo grande difícil de acceder pero retos de compresión de modelos.
13:01 🌐 Capacidad de los modelos y comparación con comerciales
- Incremento en la ventana de contexto a 128,000 tokens,
- Rendimiento y comparación con modelos comerciales (GPT-4, Claude 3.5),
- Meta posicionándose con fuerte competencia en modelos Open Source.
17:39 🏢 Ecosistema y adaptabilidad de Llama 3.1
- Impacto en el modelo de negocio de compañías de IA como OpenAI,
- Ecosistema preparado con socios como AWS, Nvidia, y Google Cloud,
- Preparación y disponibilidad para uso empresarial y académico.
58:57 🧩 Comparación y pruebas de razonamiento de modelos IA
- Comparación entre la capacidad de razonamiento de diferentes modelos de IA,
- Llama 3.1 falla en una pregunta simple de razonamiento comparado con otros modelos como ChatGPT 3.5,
- Importancia de pruebas reales y no solo benchmarks.
01:00:00 🦙 Beneficios y futuro de Llama 3.1
- Llama 3.1 representa un avance significativo con mejoras en contexto y capacidades,
- Modelos destilados más eficientes que siguen siendo open source,
- Meta promete futuros modelos multimodales y ya está trabajando en Llama 4,
- Meta está publicando nuevos modelos a un ritmo más rápido comparado con OpenAI.
Lo más gracioso es que en las respuestas del acertijo de las plumas y el plomo, el modelo llama3 8b ACIERTA y los grandes no. No se dio cuenta nuestro querido Carlos...
Porque KIlogramo es masa y no peso... y la pregunta es un poco a pillar, salvo que seas un autentico español y sepas que kilo me refiero a peso. Eso creo yo.
@@aljvangoohable La única diferencia entre peso y masa es que se multiplica por la aceleración gravitacional de donde se mida. 9.81 en la tierra.
La proporción no cambia. Es como medir el agua en peso en lugar de volumen, da lo mismo.
Ojo aquí, Carlos, en 59:12.
la probe en wassap , realmente encuentro que sus temas son mas naturales y mas correctas . En especial en temas complejos donde las oras IA se nota que nopueden opinar , deben poner temas soo hacia un lado o simplemente se complica..
59:03 Si, el pequeñín lo logró!
El tema regulación, Europa, twitt con intento de presión y Lobby y cuál es nuestro papel, no puede estar mejor explicado, con implicación pero con distancia, sin caer en populismos y sin tratar de influir. Increíble, de verdad, me quito el sombrero.
como alguien que critico tiempo atras los videos de 2 horas para digerir algunas novedades, ver este de 1 hora si bien sigue siendo un monton, ya es mucho mas digerible! en hora buena por el trabajo!
muy prometedor lo que propone Meta
Me eh visto video tutoriales hasta de 10 horas y tu te quejas por 2 horas 😂😂😂
Una hora o dos horas o más no importan. La información de este canal siempre es oro puro en el campo de inteligencia artificial, desde antes que apareciera chatgpt en 2022 ya este canal nos anticipo una idea de todo lo que estaba por llegar, la revolución que iba a significar, y tal cual profesia todo se ha ido cumpliendo. Definitivamente va a valer siempre la pena ver lo que se publica aqui.
Es maravillosa tu sencillez para exponer los temas, me encanta!
Saludos y felicitaciones
Gracias DotCSV... excelente presentación como siempre. Saludos desde Chile.
Wena we.... 😂
Las restricciones son para Europa. En Argentina ya salió la semana pasada. De hecho, ya realicé 3 feedbacks.
Quien está impulsando las restricciones???? Necesitamos nombre y apellido
@@waltercontacto8732 Son las normas de la Unión Europea. Tenés que ir a Bruselas, Bélgica, buscas el parlamento y preguntas una tal "Úrsula". Fuera de broma, son las normas de protección que impiden que en Europa tengan acceso a muchas aplicaciones, funcionalidades, muchas condiciones, etc.
Me imaginaba que con sólo mencionarlo todos los que estamos aquí, en estos temas, conocíamos las restricciones legales, etc. Disculpas.
El dueño del canal varías veces lo mencioné por encima desde hace años...
Ojo. Los temas de ciberseguridad y garantías de la privacidad de la Unión Europea, también tienen sus cosas positivas.
(En mí caso en particular también soy europeo, pero vivo en Argentina y tengo también la nacionalidad argentina. Dicho sea de paso, desde 2005 que de Inglaterra, España, Italia, Francia, Bélgica, etc. muchos se vienen a vivir aquí, a zonas como Córdoba, Mendoza, San Luis, Bariloche, también en BSAS, etc. Yo ni drogado me suben a un avión para volver a Europa y para ir a trabajar a USA. Lo que pasa es que, por ejemplo en España tienen muchos prejuicios; lo que en España dicen populismo, aquí son instituciones de defensa del consumidor, becas, créditos para construirte tu casa, etc. Pero en Argentina también hay gente con prejuicios y pasan gobiernos como los de Macri y MileI que roban y destruyen todo y en Europa se creen que es al revés. En lugar de reclamar justicia y que pongan presos a los "populistas" supuestamente ladrones, directamente son antiperonistas, cuando a nadie le importa si se es o no peronista. El que robó tiene que ir preso y listo sea del partido político que sea. Pero si es cierto que estamos pasando, todo el mundo, un tiempo de mucho odio por lo que dejó la pandemia, por las que me tiras de los medios (porque no hay justicia, si no, nadie le creería a la TV, que está toda paga para cualquier lado)
A mí me pasó una mundial. Durante una conversación digo: ....che pero a Cristina Fernández de Kirchner no fue presa... Y el otro me dice, y porque tienen todo el dinero que robó para no ir presa.... A lo que respondo: ...pero entonces vos decís que los jueces se dejan corromper por dinero (eran los jueces camaristas y la corte suprema puesta por Macri).... La persona se me quedó mirando... ...se quería matar de la idiotez que había dicho de puro odio e ignorancia....
Pasa en todos lados... la gente no piensa y quiere recibir la noticia esperada, la que confirme que tiene la razón.
Para mí el que robó tiene que devolver el dinero e ir preso; pero si no es así, si una persona incluso se juzga dos veces por la misma causa que para cualquier mono sabio en derecho sabe que es una aberración...
Pero bueno... es un fenómeno mundial causado por las propias frustraciones, egos, odios e ignorancia...
Fíjate Milei que hicieron votar, a los que aquí llaman "tilingos", por lo mismo y hoy se quieren matar con datos de la economía que son un desastre que de libertad hay mucha menos que antes, que hay más impuestos, que el presidente no está nunca en el país, siempre en viajes de lujo; mandando twitts siempre de aluviones relacionada con la ped*fília (no ped*stría como bien distinguen en España); y como es ladrón, traidor, delincuente, etc., etc., el "tilingo" no dice nada.... Nigún empresario argentino apoya ni apoya a Macri quién es quién puso a MileI porque todos saben que es otro sociopata...
Pero fuera de esta loca coyuntura política mundial Argentina es el paraíso.
Aquí vamos de nuevo...
com siempre eres muy preciso y excelente todo tus videos gracias como sisempre
Sobre el tema de las regulaciones IA en Europa os recomiendo el video:
RIA (Regulación Inteligencia Artificial) ¿Oportunidad o error histórico? | Rodolfo Tesone Menizabal
17:40 Me asusté. Pensé que ibas a decir otra cosa. Si fueras argentino lo dirías :)
OMEGALUL RTO
OGT
Que buen arranque. Esa era la primera pregunta que tenía.
Hola, Carlos. Tienes algún vídeo sobre agentes?
El directo bien. Pero la pregunta es la siguiente ¿para quién están hechos estos modelos? Resulta evidente que el común de los mortales no tiene 400 VRAM en su ordenador personal. Es más, los modelos pequeños tienen muy limitado su uso puesto que, precisamente, por ser modelos pequeños no funcionan ni de lejos con los tops de uso privado.
Al final terminas tuneándolo en la nube y dando feedback a Meta.
Apenas empiezo a ver el video pero no puedo esperar a tener un gtp 4o en local, quiero decir, uno que funcione hablando y que responda de la misma manera ya que me pareceria genial para mi pc.
me gusta mucho este formato de directo, gracias dot!
el punto es en ves de enfocarnos al tema de código hay que voltear a ver lo físico es decir H A R D - W A R E que son los que nos limitan y por eso tenemos que pagar caro todo
Es una mezcla de ambos, por buen hardware que tengas si el coste de procesamiento de tu algoritmo crece de manera exponencial no llegaras a ningun lado. Por otro lado es mas barato mejorar el algoritmo que mejorar tan significativamente el hardware
Ya está en ws en latinoamerica
Carlos, ¿podrías hacer pequeños resúmenes mucho más cortos acerca de estas noticias?
Excelente el video, felicitaciones. ¿Será posible que en el futuro se pueda destilar y hacer fine-tuning de un modelo para dejarlo muy muy liviano y súper experto en un tema en particular? Por ejemplo, que sepa de historia española, pero no sepa nada de astronomía.
Para análisis de datos, incluso en una pequeña de 50 filas y 7 columnas no sirve. La sometí a prueba en repetidas ocasiones. Las alucinaciones que comete son tremendamente erróneas. No puede calcular la suma de una columnas por ejemplo cantidad. No te da respuestas analíticas correctas, como si lo dan otros como ChatGPT o Claude.
Así que no se puede confiar del todo en estas herramientas con respecto a análisis de datos. Pero supongo que esto irá mejorando con el tiempo. Saludos!!
Hay una técnica de compresión muy interesante que se menciona en la serie Silicon Valley que surgió mientras desarrollaban el Flautista de Hamelin que era, obviamente, el sistema de compresión de archivos del protagonista grupo de programadores. Esperemos que pronto se llegue a un resultado que optimice el uso hogareño. ¿Por qué no pensar en una solución del tipo descentralizada P2P donde se comparta el contenido de los modelos entre los usuarios?
Carlos, la segunda vez que le preguntas el acertijo a la versión 8b la contesta de forma correcta. Cuando le preguntaste directamente por el acertijo.
Pareciera claro que este problema se lo ha cruzado varias veces y con un sesgo hacia que pesa más 1kg de plomo o 1kg de plumas? O alenos hacia ahí le han puesto peso 59:20
59:15 por primera vez responde bien y lo cambiaste sin leerlo jajaja
Excelente. Aprendi mucho !!
Carlos, no seas perro y haz más vídeos y menos directos. Un saludo y gracias por tu contenido.
Confirmo JAJA
Confirmo
Jajaja coincido yo también
Interesante como avanza de rápido la ia. Como tu dices, es sorprendente la rapidez con la que responde Groq. La pregunta es si , cuando la robótica avance lo suficiente, más la IA, hara que sustituyan a millones de puestos de trabajos. No sé si me gusta el panorama futuro la verdad.
empledos que no necesitan sueldo y que no necesitan descansar simplemente es el sueño de todo empresario!
el sueño de que el capitalismo sacara a millones de la pobreza terminara pues nadie obtendra una remuneracion por un trabajo para intercambiarlo por bienes y servicios! Dios que genial se ve el futuro!
que lo saquen de una maldita vez asi el mundo se va a la mierda lo mas pronto posible!
Tu crees que la población mundial morirá de hambre? 😂😂, el reemplazo del trabajo es algo ya evidente y está por venir, de todas formas es un proceso y creeme que no será de la.noche a la mañana, inclusive ya hay agendas que determinan tener una renta vitalicia para todos, obvio que para esto la ia debe aún superar el gran dilema del hardware voluminoso y costoso además del consumo energético, en fin comprendo que te asuste pero es algo inevitable solo queda seguir en lo nuestro talvez nuestros hijos o nietos verán realmente el cambio.
@@latamtruth jajaja, espero que no nos muramos de hambre. El rollo es que esto va tan rápido que hay una mezcla de incertidumbre y curiosidad sobre lo que nos espera.
Me reía de las regulaciones Europeas, pero ahora están planeando regular la IA en México también. Tengo miedo.
No sé a quién consultarán, pero estoy un 127.34% seguro de que será alguien que no sabe ni la diferencia entre bit y byte. Mucho menos como funciona la IA.
Sí lo más chistoso de todo esto es que Europa se supone qué es la "defensora de las libertades" y resulta que están siendo lo más opresores y los que más se dejan sobornar por lobbies con intereses espurios. Lo más chistoso de todo, es que Europa ya es a día de hoy una dictadura maquillada. Y obviamente que le van a poner "puertas al campo" lo han hecho con todo hoy día aquí ya se regula hasta el vuelo de una mosca. No les va a temblar el pulso a la hora de crear regulación tras regulación para hacer cada día la vida un poco más difícil a las personas de bien. Una tecnocracia al servicio de los poderes fácticos.
Llama 3 es lo que uso para asistirme en la programación. Mis test me dieron mejores resultados con esta línea de modelos de meta que otros.
eso es relativo muchos dicen que para ellos Claude es mejor para programar
Pero yo que he usado varios modelos en lineas generales Chat GPT 4o es mejor para varias cosas, a veces el problema no es como tal el generador, si no, que son las instrucciones dadas que muchas veces hay que ser muy especificos.
Y el codestral?
@@XaviIntheHouse Chat gpt 4o no necesita instrucciones, solo le hablas y te ayuda de manera fluida y dinámica.
@@KARA-IA Los filtros de entrada y salida de ChatGPT 4o lo hacen impracticable en muchos casos. Y ni que decir de las habituales alucinaciones u olvidos del contexto. Hasta Gemini es mejor.
Deje de pagar gpt 4o por pagar ahora Claude 3.5 el cambio fue completamente notable y utilizando los mismos promp
Alguien me puede decir en qué video aparece el tema del bitnet que comenta en 10:15 ?
me puedo llevar todo el día explicando y las cosas seguirán igual
Cuál instalarías en una MBP?
Hola Carlos a ver si me puedes contestar.... Estoy aprendiendo programación desde 0 tengo un GPT que me hace de tutor, y la verdad que me funciona muy bien, pero en ocasiones tengo algún error con el código (del tipo que que vez de poner corchetes en algo se me olvidan o pongo paréntesis o algo así) y el gpt no me lo capta.... Para esto cual dirías que es la mejor IA? Un saludo y muchas gracias!!
No entiendo cómo se puede limitar tecnología open source geográficamente en una región concreta. Te coges un avión a Marruecos, te descargas el modelo en un disco duro externo, te vuelves a casa y listo. Por no hablar de torrent, VPN, etc
La estoy probando en forma local para conversar con los npc de un juego, es muy pero muy buena.
El que liberen un modelo OS que prácticamente alcanza a GPT4 es la señal para que Open AI libere a su bestia número 5, Pero por las pinches elexiones, bueno esto se va a retrasar.
Tengo que probar alguna de mis automatizaciones con Llama3.1, aunque dudo que supere en eficiencia y rapidez a GPT-4o mini. Estos modelos gigantes hace tiempo que han perdido todo el sentido para aplicaciones prácticas.
Tengo una pregunta, al ser open source tambien se saltan las restricciones de los modelos cerrados? Me refiero a las censuras, porque en este caso, esto es un gran riesgo
lo entreno Facebook asi que si tiene censura, pero entrenandola puedes quitarsela.
Asi que si, como todo en la vida, es un arma de doble filo, asi como un cuchillo que puede servir para apuñarlar o para cortar alimentos y prepararte una comida deliciosa.
He visto que responde mejor a la no censura la primera versión de llama 3, en este (el 3.1, por lo menos en el idioma español) si que me encuentro más restricciones, probado con los parámetros 8b.
@@jossejosse952 qué modelo para usar en español me recomendarías para que funcione mejor sin censura? y qué parámetros crees que son los idóneos para una RTX 3060 de 6gb de ram y un AMD Ryzen 7 5800H con Radeon Graphics, 3201 Mhz, 8 procesadores principales, 16 procesadores lógicos I.
Te marco los modelos que he probado:
dolphin 2.7 mistral 8x de 26gb.
dolphin 2 2 yi model GGUF 20.66gb
dolphin 2 9 llama3 256k GGUF 8.54gb
dolphin 2 9 llama3 256k GGUF 4.69gb
dolphin 2 2 1 mistral GGUF 7.70gb
dolphin 2 7 mixtral 8x GGUF 32.23gb
Meta Llama 3 Instruct de 8.54gb•
dolphin 2 7 mixtra18x GGUF 26.44 GB
Algunos me han ido mejor que otros, pero en general mi experiencia ha sido terriblemente mala, sin aprendizaje, no sigue mis prompts, repite los textos fácilmente y no ofrece variaciones, sin contar que muchas veces no lo optimizo para mi hardware y simplemente no arroja respuestas después de estar largos minutos cargando respuesta...
:( Si pudieras orientarme un poco con tu experiencia o ayudarme a buscar información te estaría muy agradecido de veras. Un cordial saludo.
@@jossejosse952 Hola! ¿Serían tan amable de compartirme información o directrices para saber qué modelos son los mejores para usar en español y optimizado para mis recursos?
Gráfica: RTX 3060 6GB VRAM
AMD Ryzen 7 5800H with Radeon Graphics, 3201 Mhz, 8 procesadores principales, 16 procesadores lógicos
Modelos que he probado pero que no me han dado buenos resultados, solo un par de chats han arrojado textos con potencial pero NO han funcionado para aprender de la conversación, responder a las solicitudes o no repetir textos de manera psicótica :(
dolphin 2 2 yi model 20.66 GB
dolphin 2 9 llama3 256k 8.54 GB
dolphin 2 9 llama3 256k 4.69 GB
dolphin 2 2 1 mistral 7.70 GB
dolphin 2 7 mixtral 18x - 32.23 GB
Meta Llama 3 Instruct - 8.54 GB
dolphin 2 7 mixtra18x GGU | 26.44gb
Cualquier consejo basado en la experiencia de investigación será enormemente agradecido
@@SemikElGaMerlo siento, no tendras acceso a tus chats de cp
Gracias ati como siempre muy buen video , muchas gracias
Que modelo recomendarias para usar en una empresa pequeña?
Carlos. Al obtener un entrenamiento de los modelos pequeños con los datos sintéticos ¿No puede llegar a generar sesgos y alucinaciones?
Hola carlos yo soy de latinoamerica y puede accesar a Meta IA y esta activo por default el modelo mas grande sin vpn por que antes entraba con una y el modelo mas grande tiene acceso a internet
Tenemos el de 70B
Sigue haciendo directos! Por favor 😊
Gracias Carlos! Bien vídeo. También me preocupa que Europa pierda ventaja competitiva por no poder usar IAs potentes.😢
¿ Hay alguna web o algo donde digan si se encuentran habilidades emergentes en los modelos?
al dia de hoy las búsquedas dan 228 results for all: emerging properties of artificial intellig
Utilicé llama 3 para que hiciera la postulación a un trabajo...y quedé seleccionado 😮.
Ahora me da vergüenza explicar que no era yo 😅
El problema es que si no hace algo al respecto, te estas poniendo la soga en el cuello.
Jajaja
Con LM Studio ya lo puedes probar. He instalado el de 70B con Q6. Ningún problema para descargar y ejecutar.
Que especificaciones de hardware necesitas para correr Llama 3.1 en LM studio?
Vivo en Latino américa y le pegunte a la IA que esta en Instagram y esta fue su respuesta:
Un kilo de plumas y medio kilo de plomo no se pueden comparar en términos de peso, ya que la pregunta está formulada de manera incorrecta.
Un kilo de plumas pesa 1 kilogramo.
Medio kilo de plomo pesa 0,5 kilogramos.
Entonces, un kilo de plumas pesa más que medio kilo de plomo.
La confusión común detrás de esta pregunta es que la densidad del plomo es mucho mayor que la de las plumas, lo que significa que un kilogramo de plomo ocuparía mucho menos espacio que un kilogramo de plumas. Sin embargo, en términos de peso, un kilo de plumas y un kilo de plomo pesan lo mismo.
Carlos en las pruebas que hiciste el modelo 8B entrego la respuesta correcta, revisa el fotograma a partir de la linea de tiempo 59:14 y veras que el modelo respondió de forma acertada
Cuando el codigo de programacion producido por un llm es malo , a tratar de ejecutarlo y corregirlo la ia puede andar en circulos sin encontrar respuestas. Al final tuve que darle una pista importante para que recien funcionara el codigo, pero para ese punto el codigo ya era funcional y la ia solo agradecia y copiaba y pegaba el codigo que le di. El autoaprendizaje de la ia por propio conocimiento sintetico debe ser supervisado, no todo lo que produzca sera util y muchas veces se puede estancar y no salir de ahi
100% en alguno de los items que significaría? Es decir, el 100 es respecto a que? Es posible lograrlo?
De acuerdo a lo que dices el costo de 16.000 H1 GPU x US 30.000/u = 480 millones de dolares es barato
estamos hablando de cpu es muy complicado explicarlo o lo tengo que hacer con peras y manzana o que! que parte no se entiende que hay un problema en esas empresas que nos limitan (intel, amd y etc )
Preguntado en perplexity:
Hola. ¿Qué pesa más? Un kilo de plumas o medio kilo de plomo?
Answer
¡Hola! La respuesta a tu pregunta es bastante sencilla. Un kilo de plumas pesa más que medio kilo de plomo.
Comparación de Pesos
Un kilo de plumas: 1 kg
Medio kilo de plomo: 0.5 kg
Por lo tanto, un kilo de plumas (1 kg) es el doble de pesado que medio kilo de plomo (0.5 kg). ¡Es un buen ejemplo para recordar que el peso se mide en unidades y no en el material!
YA NADA ME SORPENDE DESDE QUE MI EX ME SORPRENDIÓ CON OTRO 👿
Seguro??
yo soy el otro
yo soy vuestro padre
Y aquí vamos de nuevo...
Pero si era tu ex es normal que estuviera con otro, deberías pasar pagina
54:00 Lógico: los gobiernos europeos no quieren entregarle en bandeja los datos de sus habitantes a las empresas corporativas yanquis.
Muchas gracias!!
En un rig de mineria de 6 3090 de 24gb podria funcionar?
no, la memoria no se comparte
NO
No les hagas caso, sí se puede tienes 144 VRAM, si todos estan en una misma placa de servidor, descarga la aplicación versión GGFU para que lo demás lo cargues a CPU, eso sí vas a necesitar 600 de RAM...
@@ArchFarm mola
Por lo general yo uso la IA para programar. Llama 3.1 me parece aceptable, pero el campeón para programar sigue siendo Claude 3.5 Sonnet, seguido por ChatGPT 4o. También están blackbox y Phind, pero en mi opinión, los que he mencionado son los mejores.
simplemente no sacan la tenologia por que no les convienen y como son de forma natural monopolio pues se tiene que aguantar hasta que alguien poderoso salga y diga hasta aqui y vamos a convertir el hardware en open igual espero y entiendan la idea
Me está empezando a preocupar realmente estos modelos y todas las últimas novedades del último año. Mientras la mayoría dice "esto es lo peor que va a ser", "recién empieza, imaginate en unos años", "la mejora es exponencial", etc.etc.... y por todo lo que veo ... parece que en realidad esto no es el mínimo, parece que este es el punto MÁXIMO de esta tecnología y por eso no se pueden sacar tanta diferencia entre los modelos, por eso buscan nuevas formas como usar agentes, mixture of experts, etc ...
Lo pero no es eso, Sino cuando me entere que no tienes novia y te dejaron . 😢😢😢
@@AlgodonDorado ey como lo supiste?
Amigo, Carlos cuando le haces esa pregunta de " que pesa mas un Kilogramo de... o medio de .... al utilizar la palabra kilogramo, confundes al modelo pues kilogramo es una unidad de masa y no de peso..... y el modelo internamente utilizará el concepto masa para ""razonar""...
Hola, se me ha instalado solo el en el celular, (Whasap de Colombia) ya lo probé y al parecer funciona bien para ser un IA
Cuanto valdrá una pc qué pueda correr ese modelo?
Gracias
otro glorioso día siendo accionista de meta
Consulta alguien sabe si se puede descargar en LM Studio llama 3.1 de 8b o de 70b en un macbook m3 max? Y como funciona, se podra con 64gb para arriba?
A mi me entró por meta AI un chat que ellos habilitan
lo que mas me preocupa de esas ideas de prohibir sacar modelos open de gran tamaño, es que esos modelos de gran tamaño hoy, que no se pueden correr en ordenadores de casa, mañana seran pequeños y se podran correr el los smartphones del futuro tal vez no tan lejano, con lo cual, determinar que es un modelo pequeño es algo dificil por el continuo y rapido avance que existe
No termino de entender que significa un modelo open source, de que me sirve descargarlo en mi equipo frente a usarlo en la propia plataforma?
Open source, en español código abierto, qué significa que cualquier programador puede modificar sus parámetros, lo cual puede mejorarlo para la comunidad. Esto es lo mejor que le puede haber pasado al mundo de la informática. Normalmente en los modelos cerrados, en el caso de la inteligencia artificial y también en el caso de cualquier programa o aplicación informática, tendrías que pasar por caja, cada vez que se publica una actualización o en su defecto un programa o aplicación.
Sin embargo el hecho de que una comunidad, en este caso open source de código abierto, pueda modificar un programa, o como aquí se está nombrando una inteligencia artificial, le da mucha libertad a los usuarios, desde la ventaja en sus inicios de usar programas libres que cualquiera se lo puede descargar sin necesidad de pagar por ello, o incluso la libertad que le da a estos programadores de poder modificar y mejorar para esta comunidad. No significa por ello que todo de código abierto sea libre, por qué después eso puede sufrir unas modificaciones que el autor puede querer una recompensa por ello. Pero solo en esos casos y aún así es maravilloso.
Hola, ¿cómo podría entrenar LLama para funcionar como un asistente de Excel? Para que me ayude a construir formulas, resolver problemas, VBA...
Gracias
Recomiendo que dejes eso y te dedicas a la technologia y desarrollo.
¿Existe IA basada en arm?
Hay dos groq? veo que una es grok y otra es groq
Grok es el llm de Elon, Groq es una plataforma para probar llms os con mayor velocidad de respuesta.
Si es opensource, como es posible que ellos puedan evitar que Europa lo use?
La lama gordota está muy bonita la vdd
No hay carrera de la IA sin un modelo funcional europeo. Vamos por detrás y nos toca esperar.
"Multimodalidad total" hace falta.
El mundo debe cambiar y no someternos a limitaciones impuestas por intereses económicos. Es inaceptable que, por conveniencia monetaria, sigamos operando bajo restricciones que podrían ser superadas con la tecnología actual. Por ejemplo, es absurdo que no podamos crear un clúster de procesadores donde dos, tres, o más unidades trabajen juntas para procesar una única tarea. mientras gente se fije en redacciones si esta bien o esta mal eso no cambiara nada y seguiremos igual esperando en la cama que facebook venga y resuelva o google lo haga etc.
Que dices? Estás describiendo la programación paralela y llevamos haciendolo decadas. Esos "clusters" se llaman CPUs y GPUs jajajaja.
A mi me diagnosticaron algo parecido que a ti, así que te entiendo perfectamente.
@@evelioguaperas te voy a contestar por que parece que debes tener como 14 años o 12 te explico para que tu pueda procesar cosas complejas requieres de cpu tu cpu que tu tines esta limitado solo imagina que si tu cpu que esta limitada juntas 10 cual seria tus resultados, para un tema de entrenamiendo de ia se requiero cpu en fin
@@gposoft Hermano, he hecho un master de Computación de Altas Prestaciones y un doctorado en Arquitectura de Computadores acelerando algoritmos de encriptación con computación paralela tanto en GPUs como en FPGAs. Sé de que hablo. La CPU que estoy usando ahora mismo es una AMD Ryzen 5 Pro 6650U con 6 cores (eso quiere decir que tiene 6 procesadores funcionando a la vez en entre 1 y 12 problemas porque tiene hyper threading). Ahora, si hiciera lo que dices para tener 10 funcionando a la vez podría comprarlas y usar OpenMPI para trabajar con computación distribuida, no me lo impide nadie. No lo haría porque es una tontería, pero a diferencia de tí yo si sé hacerlo.
Pd: no te equivoques que ya tengo 15 añazos 😜
@@evelioguaperas que bonita falacia de autoridad, me encanta cuando hacen eso en Internet, muchos egos frágiles.
22:00 lo mejorado lo dejan para ellos, y en países colonizados prueban sus tecnologías con nosotros como ratas de laboratorio.
Que programa usas para grabarte asi, queda buenisimo!
no se, pero probablemente sea OBS
#53:40 Eso de pensar que los políticos y burcratas miran por nuestro bien es inocencia extrema.
Who watches the watchmen?
Hola. Hice el acertijo en grop 3.1 8b y la respuesta fue correcta.
Pregunta: " ¿Qué pesa más? ¿Un kilo de plomo o medio kilo de plumas?"
Respuesta:"Un kilo de plomo pesa más que medio kilo de plumas."
Volteale las plumas por el plomo y todo se sale de control:
Una pregunta clásica!
La respuesta es: un kilo de plumas pesa lo mismo que medio kilo de plomo.
¿Por qué? Porque la unidad de masa es el kilogramo (kg), y un kilo es igual a 1000 gramos. Así que:
* Un kilo de plumas pesa 1000 gramos.
* Medio kilo de plomo pesa 500 gramos, pero como queremos comparar con un kilo, multiplicamos por 2: 500 gramos x 2 = 1000 gramos.
Ambos pesan lo mismo, 1000 gramos o 1 kilogramo. La diferencia está en su densidad y volumen. Un kilo de plumas ocuparía mucho más espacio que medio kilo de plomo, porque las plumas son muy ligeras y ocupan mucho espacio, mientras que el plomo es muy denso y pesado.
Al menos lo multiplico por dos para asegurarse de que esta bien.
@@vintack-g8069 tienes toda la razón.
Respuesta: "
Una pregunta clásica!
La respuesta es: medio kilo de plomo.
Aunque un kilo de plumas puede tener un volumen considerable, su peso es muy bajo debido a la baja densidad de las plumas. En general, una pluma puede pesar alrededor de 0,05-0,1 gramos.
Por otro lado, medio kilo de plomo es exactamente 500 gramos, que es un peso mucho más alto que el de un kilo de plumas.
Así que, aunque un kilo de plumas puede ser más voluminoso, medio kilo de plomo pesa más.
"
¿Qué pesa más? ¿Un kilo de plumas o un medio de kilo de plomo?
Otra pregunta interesante!
La respuesta es: un kilo de plumas pesa un kilo, y un medio kilo de plomo pesa... medio kilo.
Aunque el plomo es mucho más denso que las plumas, la masa de un kilo de plumas es igual a la masa de un medio kilo de plomo. Sin embargo, debido a la diferencia en la densidad, el peso aparente es diferente.
Un kilo de plumas ocupa un volumen grande y es muy ligero, mientras que un medio kilo de plomo ocupa un volumen pequeño y es muy pesado. Por lo tanto, aunque la masa es la misma, el peso aparente es diferente.
En resumen, un kilo de plumas no pesa más que un medio kilo de plomo, pero el plomo parece más pesado debido a su mayor densidad.
@@titomunoz9685 Suena tan convincente que algunas personas que conozco le darian unos tres vistazos para darse cuenta que esta mal lo que dijo.
No le llamemos open source a algo llamado open weights.
Si dieran los datos de entrenamiento seria open source
Lamine Llama 3.1
Europa no para de meterse tiros en el pie, pues mientras aquí se regula, en otros países van a ser más competitivos. Está claro que Europa va en caída libre, y encima, ¿de qué sirve en una economía global? Solo para fastidiar a los europeos. Y si solo fuera esto, pero es que son muchas regulaciones. Está claro que Europa se está pudriendo con los malos gestores y la burocracia.
El modelo grande tal vez no es tanto mas grande, y por otro lado, las pruebs tal vez se estan quedando atras y se esta produciendo un efecto asi como de saturacion de las pruebas.
Este será mi último comentario, ya que puede ser complicado explicar algo que considero claro. Primero, respeto todas las opiniones y no quiero que piensen que soy radical como Maduro de Venezuela.
Permítanme explicar el tema del CPU con una analogía: imaginen que tengo un coche que solo puede correr a 120 km/h. No puedo exigirle más porque esa es la velocidad máxima que la marca estableció. No tiene sentido buscar soluciones alternativas cuando la marca tiene la capacidad de aumentar esa velocidad para que el coche llegue más rápido.
Sin embargo, la marca prefiere decirnos que debemos comprar el siguiente modelo para obtener mayor velocidad. ¿De qué estamos hablando aquí, de estrategias comerciales de empresas chinas o americanas?
Saludos a todos y que tengan un buen día.
Tengo mis dudas que el reentrenamiento se quede solo contigo, ese debe ser su modelo de negocio.
Video muy fuerte
Excelente!!!
Oh shit, here we go again
Pk no le pides a alguien que viva en estados unidos que se baje el modelo pequeño (8b) a ver si funciona en un PC ?
Ya los legisladores europeos ya estan un paso adelante viendo como regular el viaje en el tiempo y posteriormente los viajes intraesteleres . para colonizar otras civilizaciones extraterrestres😏😏
A comer con gusto voy
Yo aquí esperando a Cohere y que actualice su Command R, o que Elon abra Grok ya de una vez para todos ☠️
mientras las emprea como facebook que de echo respeto mucho por que hoy en dia ha echo mucho aporte open yo replantearia el contexto por que mientras uno batalla de mejoras o como optimizar cosas para que nos cueste mas barato mientras eso sucede amd y intel se ríen de nosotros incluyendo a Facebook por que cuenta con la tecnología hoy en dia pero no la sacan por que nos les conviene asi de simple entoces el plantiamiento seria como se puede competir primero con intel y amd en ves de andar sacrificando cosas saludos !
Aprende a redactar 😂
@@sacc19 Aunque respeto mucho a empresas como Facebook por sus importantes contribuciones al open source, replantearía el contexto actual. Mientras nos esforzamos por mejorar y optimizar procesos para reducir costos, empresas como AMD, Intel, e incluso Facebook, se benefician de la tecnología avanzada que poseen pero que no liberan al mercado porque no les resulta conveniente.
En lugar de sacrificarnos y buscar soluciones de bajo costo, considero que el enfoque debería ser cómo podemos competir directamente con gigantes como Intel y AMD.
Saludos, ahí esta pero lo comprendiste espero y aportes ideas y no burradas lo hice desde el phone y sin mi lentes revisando ahí esta la corrección y ya con eso se resolvió el tema principal
@@gposoftPara nada Intel y AMD no tienen buenas IAs, que mejor para ellos sacar una IA que aproveche muy bien sus chips y que eso se traduzca en mayor venta de sus dispositivos. Algo así como intentan hacer con las NPUs obligarte a comprar PCs con componentes especificos si quieres explotar el poder de las IAs
Para bien o para mal la mejor IA generalista de cara al publico es ChatGPT 4o, que luego halla IAs para cosas super específicas para determinado tipo de cosas, es diferente.
Por ejemplo, mayor poder computacional se traduce en mayor gasto de electricidad y las empresas siempre quieren ahorrar. Así que te aseguro que si quieren optimizar sus IAs a que trabajen mejor con poco gasto energético e igual potencia.
Claro, con el 405 puedes reducirlo para crear uno de 100 pero no puedes ampliar uno de 70
Pero Carlos....