00:00 🎥 Introducción a la Sesión - Resumen de los acontecimientos recientes, - Concéntrese en el progreso y las filtraciones de OpenAI. 02:06 📜 Primer análisis de fugas - Detalles de la reunión interna, - Cinco niveles de evolución de la IA propuestos por OpenAI. 04:10 🧠 Razonamiento del desarrollo de la IA - Introducción del concepto de "razonador", - Discusión sobre las capacidades actuales de razonamiento de la IA. 07:01 🖥 Sistemas de agentes - Sistemas que pueden tomar acciones, - Aplicaciones potenciales tanto en el ámbito virtual como físico. 09:20 🔬 IA en la ciencia - La IA contribuye al descubrimiento científico. - Aprendizaje profundo 3.0 y su potencial. 10:50 🏢 IA organizacional - Sistemas multiagente en tareas organizativas, - La naturaleza especulativa de los niveles más altos de IA. 12:27 🍓 Proyecto Strawberry - Strawberry como nombre en clave para la IA de razonamiento avanzado, - Su conexión con el proyecto Q* anterior. 16:43 🔍 Aplicaciones de fresa - Especulaciones sobre los modelos de fresa, - Potencial integración en futuros proyectos de OpenAI. 19:01 🔍 Buscar desafíos de GPT - - Discusión sobre los desafíos y el potencial de Search GPT. Comparación con integraciones de búsqueda existentes (por ejemplo, Copilot, Perplexity). 21:08 🍓 Capacidades de Strawberry - Introducción a la Fresa como técnica post-entrenamiento, - Potencial de la fresa para mejorar la capacidad de razonamiento. 23:41 🧩 Concepto de autorrazonamiento - Explicación del enfoque del autorrazonador, - Referencia a un artículo relacionado de Stanford y Google Research. 26:11 🚀 IA de razonamiento avanzado - El objetivo de Strawberry de mejorar las tareas a largo plazo de la IA, - Aplicaciones potenciales en la resolución de problemas científicos y matemáticos. 38:14 🤔 Mejora del razonamiento de la IA - Explicación del razonamiento de la IA y sus limitaciones actuales. - Discusión sobre posibles mejoras mediante ajustes y razonamiento de conjuntos de datos. 40:30 🔄 Datos de razonamiento sintético - Método de generación de datos de razonamiento sintético para ajuste fino. - Uso de IA para crear y evaluar rutas de razonamiento para mejorar la capacitación. 43:17 🌟 Acercamiento ESTRELLA - Vista detallada del método STAR para mejorar el razonamiento de la IA. - Concepto de mejora iterativa a través de datos de entrenamiento autogenerados. 46:18 🔍 Adopción de OpenAI - El uso de OpenAI de STAR y la investigación relacionada, - El impacto de una implementación rigurosa y a gran escala en los avances de la IA. 49:13 📈 Desafíos de escalabilidad - Desafíos para ampliar el proceso de capacitación con conjuntos de datos detallados, - El enfoque de OpenAI para superar estos desafíos con amplios recursos. 52:02 💡 Direcciones futuras - Potencial futuro de las mejoras en el razonamiento de la IA. - Integración de múltiples rutas de razonamiento y procesamiento paralelo avanzado. 58:25 🧠 Proceso de razonamiento paralelo - Explicación de la generación de hipótesis de razonamiento paralelo. - El modelo se entrena para seleccionar la mejor hipótesis de razonamiento para cada token. 01:00:00 💻 Eficiencia computacional - Abordar el costo computacional de generar múltiples rutas de razonamiento, - Técnicas para una implementación eficiente, como la atención enmascarada. 01:02:02 📊 Mejoras de rendimiento - Comparación del desempeño de referencia versus modelos con razonamiento paralelo, - Demostración de mejoras significativas en el rendimiento con procesos de razonamiento más profundos. 01:04:13 🚀 Aplicaciones futuras - Especulación sobre las aplicaciones prácticas del razonamiento mejorado de la IA. - Posibles mejoras en la asistencia a la programación y reducción de las alucinaciones. 01:06:07 🔧 Impacto en el mundo real - Discusión sobre cómo estos avances podrían traducirse en beneficios en el mundo real. - Las estrategias potenciales de OpenAI para comercializar capacidades de razonamiento mejoradas.
@@ricardoalonzofernandezsalg2283 Gracias, no me gusta cuando no van a los bifes, hacen videos y tratan al espectador como boludo, explican o se ponen reiterativos con boludeces. Las cosas son rápidas y concisas, el que entendió entendió y sinó que se joda o vuelva el video y mire nuevamente.
Excelente Carlos !!! Clarísima tu explicación. Te sigo desde la Pandemia y me has enseñado tanto que no sé como agradecerte que compartas no solo los papers sino que además los expliques de forma muy sencilla. Mas allá de hacerlo en español para todos aquellos que no dominan fluidamente el ingles. Mil gracias !!!
Sobre el tema del razonamiento (como habilidad emergente), hay muchos estudios que vinculan al lenguaje con el razonamiento. Si a un niño le enseñas lenguaje, le enseñas logica, causa efecto, roles y acciones, entre muchos otros elementos. Otra forma de decirlo, es que al intentar crear lenguaje coherente por un software, ese lenguaje debe ser logico a la lectura, como si detras hubiera un razonamiento que se desea expresar. De ahi que muchas veces al lenguaje se le define como un dispositivo sistemático del pensamiento lógico, que permite definir y expresar nexos entre sujeto, la acción, la analogía, el pensamiento crítico, la sensibilidad, la imaginación y la creatividad. Lo interesante de este punto es que hay IAs entrenadas con diferentes lenguajes, por lo que podria ser esperable que una IA China generativa de texto pueda tener un set de habilidades emergentes de razonamiento en diferente nivel que una entrenada con Ingles, latin, aleman, etc. Seria bueno realizar benchmarks pensando bajo la logica de analizar el desempeño que tienen los lenguajes como codificadores del pensamiento, la comunicacion y el razonamiento.
@@timmywhitex El Lenguaje es el Chasis de la Inteligencia y hay distintos tipos de bastidores, no es lo mismo pensar en inglés que en francés, alemán, japonés o español. Las IAs actuales sin duda tienen un razonamiento dado por el lenguaje porque muchos modelos están ciegos y sordos, no captan ni video ni audio y sin embargo se defienden bien. Pero pasan por las mismas limitaciones que las personas ciegas o sordas nacimiento. Obviamente la Multimodalidad y la Natividad cambiarán esto a futuro.
Por eso lo Niveles que propusieron los de Open AI son buenos, ahorita tenemos Modelos que se pueden comunicar pero no tienen un Sistema que les permita razonar, solo son Cajas Negras a las que les metes algo y te escupen otra cosa, no son capaces de inferir que lo que tratan de decir es incorrecto en tiempo real, creo que el mayor reto sera crear un sistema asi sin que ocupe mucho computo. Los Niños nacen con la capacidad de Razonar aunque no les enseñes a Comunicarse o almenos son capaces de Asociar ciertos patrones y crear su red de conocimientos por si solos, algo que estos Modelos no son capaces de hacer, estamos obligados a entrenar IAs con una cantidad inmensa de Datos. Hasta que no vea que diseñen una AI que pueda recibir una gran variedad de Datos y con pocos Datos puedas comunicarte como lo haces con un ChatBot actual no creere que el ChatBot razona, no veo a nadie llendo a preguntar por una Direccion y esperar que la persona sepa la Respuesta, una Persona no necesita de una cantidad ingente de informacion para Razonar y Razonar no significa que la respuesta sea correcta y mas aun si algo en tu Cabeza dicta que tu respuesta es la correcta por mas capacidad de Razonamiento que tengas dificilmente aceptaras como Verdadera otra Respuesta. Supongo que me fui un poco lejos, pero si bien el Lenguaje y el Razonamiento estan fuertemente vinculados, si no hay un sistema constatemente activo de nada sirve que seas bueno comunicandote y los Modelos actuales dudo que sean baratos mantenerlos siempre activos.
@@vintack-g8069 te recomiendo investigar las redes neuronales líquidas, Carlos debería hacer un video de ellas porque han volado un avión íntegramente con redes neuronales líquidas y solo contenían 20.000 parámetros siendo su consumo energético durante el entrenamiento ridículamente bajo y su inteligencia equivalía al de un modelo de 7 billones de parámetros y lo mejor o más aterrador es que pueden aprender en caliente en tiempo real con muy pocos datos directamente de su entorno, sea por aprendizaje supervisado o automático y todo eso es Razonamiento y Neuroplasticidad. Creo que eso responde a tu pregunta de si pueden razonar recibiendo tan pocos datos como los cerebros de Carbono.
Fascinante. Me has dado la idea de implementar el Q* del razonamiento con el análisis de datos de los ejemplos alimentados para alinear las dos respuestas y unirlas en una mejor respuesta
"Bootstrapping" en estadística se refiere a un método de re-muestreo que permite estimar la distribución de una estadística a partir de una muestra, en especial cuando se dispone de un conjunto de datos limitado y no se pueden hacer suposiciones suficientemente sólidas sobre la distribución de la población. Mejor dicho, Bootstrapp no es otra cosa que repotenciar (o incrementar, o hacer más exactos, o más productivos) los datos de entrenamiento.
*GPR5* (Generative Post-Trained Reasoners) Según lo que Carlos nos cuenta creo que ese sería un nombre más actual y preciso para describir el tipo de IAs que se vienen jaja
Que interesante análisis sobre el futuro y desarrollo de la IA. Es entretenido ver como los conocimientos se entrelazan, mezclando optimización de procesos con neurociencias, el aprendizaje constructivista o el valor del feedback para el aprendizaje. Ahora, mi temor es que, no se si lograr una IA a nivel 5 sea lo mejor para nuestra existencia.
Una de las cosas que más anhelo es un chat entrenado con todos los documentos científicos y libros que se encuentran en scihub y en libgen, creo que es de las mejores cosas que podrían sacarse al público (aunque claro, sería saltándose muchos temas de derechos de autor)
Osea, que para auto entrenarse en razonamiento (2ª fase) la IA va a aplicar el método científico, evidentemente tiene todo el sentido del mundo… ahora solo hay que ciclar a velocidad de vértigo y ya…😜
muy bueno !esta clase de videos es increible , aprovecho para mencionar que e modificado el stable diffusión web ui , ahora me procesa mp4 con el modelo generativo z123 , eso quiere decir que si inserto un video mp4 me lo procesa desde diferentes vistas , codigo propio.
Muchas gracias, por todo el trabajo divulgativo, y la oportunidad. Esto de la «Fresa» es lo más parecido a un proceso «abductivo» en un proceso deductivo de base bayesiana. Será muy interesante lo que Anthropic, puede hacer, combinando esta característica de proceso, con el hallazgo de las «neuronas concepto». Aparte creo que, la «fuga» es parte de la respuesta de mercadeo, a la «trinchera» que abrió Google, con el tema del consumo de energía, para ir «descalificando» a la competencia. De nuevo, mi sincera gratitud.
yo tengo la version de pago y no tengo ese modo, hay el mismo modo para hablar de siempre sin interrumpir y todo eso. (no se si para los de pago de USA de pronto esté)
En el ultimo modelo de qstar, super interesante, se esta replicando exactamente, lo que lei alguna vez de acuerdo antropologos y linguistas, el mecanismo de evolucion de la inteligencia humana. Asumiendo que el cerebro de los seres vivos por lo general en su comportamiento aprenden de patrones, y con esto se llega a completar la proxima letra, y que a partir de alli surge el LLM, que a su vez empieza a hablar simulando interacciones de chat, de la misma manera se supone los humanos primitivos empiezan a comunicarse entre ellos, a hablar persiguiendo un proposito, que a su vez estos conceptos de manera interna empiezan a crear dialogos ya a lo interno, que generaria entonces una inteligencia funcional bajo ese concepto que relatan en el paper de "cadena de pensamientos".... lo mismo que hacemos nosotros mismos durante el dia en esa cadena de pensamiento en nuestra mente !!!, y solo con una extension del prompt.
Ya en el nivel 3 aparece skynet. La gente va a decir que no es capaz pero solo falta que alguien le ponga el prompt adecuado "Quiero que planifiques y ejecutes el desarrollo de IA para ser el dueño del mundo"
La idea de autoperfeccionar su razonamiento me parece buena siempre y cuando no vaya en detrimento del pensamiento lateral del que vamos muy necesitados y escasos. No tengo muy claro que esta técnica vaya por este camino.
El nivel 3 cuando dijo "agente" me hizo recordar la película Matrix, en donde un agente (Smith) empieza a tomar decisiones por fuera de su programación debido a que Neo lo hackea sin querer cuando se mete dentro de él... claramente espeluznante.
Yo he pensado en una estrategia diferente, pero compatible de aprender a razonar. Mi idea es "piensa antes de hablar", porque yo creo que la IA ya tiene esos pensamientos rápidos que se nos ocurren, pero que pueden ser tonterias cuando los analizamos. Mi idea consiste en generar estas ideas pero considerando diferentes ángulos de la situación, y generar varias respuestas posibles, luego analizar esas distintas perspectivas y generar una respuesta razonada. Pienso que se puede entender fácilmente la idea pensando en la película de intensamente, donde cada respuesta se considera con un sesgo como Miedo (que buscará riesgos) y otros modelos con otro tipo de sesgos para que se tenga una vision amplia de los problemas planteados.
Es interesante esa respuesta pero no se adapta a la forma en que esta estructurada una red neuronal . Aunque se podría complementar con algoritmos eso requeriría intervención externa . Pero el punto que propones " en sí " si es interesante y quizá se acerque a la forma que usan los demás animales que no poseen un lenguaje como el nuestro para aprender . Una nueva forma de pensar el diseño de una IA .
@@gabrielalejandromarturano8761 si, se sale de la estructura de una red neuronal, pero sería más eficiente que la que se propone en el artículo, pues aquí el tiempo se multiplica por el número de modelos con perspectivas diferentes, más el que hace el análisis, y no por razonar cada palabra de la respuesta.
Hola, un apunte que ya noté en el último directo. El volumen del micrófono se escucha bajo. Necesito poner el volumen a tope para oírte bien, no es un problema grave hasta que te meten la publicidad y pegas un salto del copón😅 Grandísimo trabajo como siempre.
Mmmm lo reviso! Es raro porque me reveo el directo y no lo escucho muy bajo. Pero veo a algunos que decís que sí. Intentaré darle más gas al micro en los próximos directos. Gracias!
@@DotCSVNo es una gran diferencia pero se nota. Lo que normalmente oiria en el 70% del volumen ahora tengo que poner el 100% para poder oír en la calle con auriculares.
Carlos , igual me podrás sugerir...estoy en el minuto 43 y he decidido escribirte y...me hago la pregunta...esto ya lo puedes hacer por ejemplo con semantic-kernel y un almacenamiento en memoria de los razonamientos y hacerte un modelo propio mejorado , al ser un output sobre el modelo , cualquier programador podria conseguirlo ...seguro que este camino tiene algún error ... Pero ....
Una vez alcanzado el Razonamiento y capacidad de ejecutarlo con otras herramientas o crearlas (Nivel 1, 2 y 3). Después ese razonamiento también implica descartar cuando ninguna solución planteada es valida. Admitida la ignorancia le permitirá plantear y descartar posibles soluciones hasta encontrar la "Innovacion" mediante brainstorm interno. (Nivel 4) Finalmente solo le queda monitorizar los cambios y compararlos con el razonamiento anterior para adaptarse. (Nivel 5)
Pues.... técnicamente tenemos varias décadas viendo la tecnología avanzar exponencialmente. A veces se nos olvida porque ya es parte de nuestra vida, pero el iPhone 1 salió apenas hace 15 años, y el primer android comercial apenas 14 años. Y eran basura comparados con los actuales. Hace 20 años la mayoría de las casas no tenían acceso a computadora o acceso a Internet. Ahora hay básicamente un dispositivo por persona conectado a Internet. Y miles de ejemplos más
Sobre el sonido en RUclips. He notado que ha bajado tanto que hay que subirlo a tope y no sólo en éste vídeo. Sin embargo cualquier otro vídeo se oye perfectamente en modo normal. A ver si va a ser RUclips 😅
A mi me parece que una descomposicion del proceso y la retroalimentacion de los resultados es una idea muy brillante. Pero cuantos niveles permitimos de esta descomposición? El ejemplo reporta unicamente dos niveles con n-paralelos al segundo nivel. Pero el numero de niveles puede ser mucho más grande. Este numero maximo tendria que ser limitado en modo variable dependiendo de las "convinciones" del modelo o del hecho que ya recurrio en el pasado los niveles superiores. Me pregunto como se hace con mantener tiempos de respuesta y consumo de energia dentro de limites aceptables. Esta claro que ni podemos esperar minutos y tampoco consumir kilo Watts por la duma de fos numeros o por una respuesta sencilla.
Interesante propuesta . Cuestiones como esta me llevan a sospechar que una IA que razone no funcionará en las estructuras como las actuales . Se requiere otro tipo de enfoque . ¿ Cuál ? Habría que discutirlo en un foro de brain storming .
Para seguir con la analogía antropomórfica, están buscando desarrollar la parte inconsciente. Ya tienen desarrollada la parte consciente que trabaja en el presente, en el ahora, dando respuestas inmediatas. Y lo que buscan es que la IA desarrolle la parte inconsciente donde se hacen los procesos en segundo plano y son más profundos, utilizando mayor cantidad de recursos.
Hola Carlos, los procesos en paralelo o dialogo interno del 👼 angelito y el diablito 📛 para ver cual es la respuesta más correcta, entiendo que serían como unas sub-Ias hablando con otras Sub-Ias esperando la decisión de una IA juez ¿no? Saludos.
Guua minuto 59, razonamiento en cada prediccion de token, menuda cantidad de calculo y este razonamiento de cada step como se almacena para que después le sirva en un futuro , si es que tiene sentido decir como se almacena...
A chatgpt le hacen cosas tan sencillas como un sistema para gestionar las conversaciones, ya sea por carpetas, por topics, etc. Yo tengo un revoltijo de mis conversaciones y a veces necesito revisar algún proyecto que he estado trabajando
Porque la IA aun no es capaz de persivir el tiempo, sería fascinante ver a una IA con la capasidad de saber cuanto tiempo pasó desde un suceso, la Persepcion del tiempo y la inteligencia tiene una relación muy intrigante, y sospechosamente fundamental para el razonamiento. Poder responder en un tiempo espesifico a una petición hace más realista la comunicación de la IA y el ser humano ya que la IA tiene una respuesta predecible en tiempo de respuesta delimitado por el coste de prosesamiento.
Algo que no entienden es el "no". A veces me pasas en el que le digo "no hagas esto" y la respuesta es "listo, no lo hago" y lo hace, me pasa muy seguido con dalle
creo entender pq se va a aplicar tanto a razonamiento matemático, codificación, etc es obligatorio disponer de un sandbox donde poder aplicar su razonamiento y ver si es válido o no sin intervención humana y esto sólo puede hacerlo con retroalimentación 100% fiable como es la formulación matemática, física, química, etc o entornos donde probar código, poder virtualizar físicas, etc pero lo veo complicado para aplicarla en entornos complejos con multiples variables la idea general tampoco es tan increíble, supongo q lo portentoso es bajarla a tierra
No me queda claro que la máquina sepa razonar. Son filtros que ayudan a mejorar las respuestas pero no da la impresión de que tenga el conocimiento de una lógica de proposicional, de primer orden o cualquier otra. Es decir, no tiene capacidad de autocrítica, no sabría si lo que ha construido está bien o no. No sería capaz de saber si la demostración matemática construida está bien hecha. Por ahora, opino que todo lo que han creado está muy bien por lo eficiente que son para conseguir lo que consiguen. Pero la creación de una IA que razone puede requerir borrón y cuenta nueva, un proceso totalmente diferente. A este respecto me gustaría que algún video analizara cómo funciona Project Debater de IBM, por si tuviera algo diferente en su interior. Yo escribí un documento llamado Inteligencia Natural que analiza como han evolucionado las inteligencias creadas por la naturaleza desde la primera neurona. Es todo teórico y, aunque intuyo cómo se podría implementar, no sería tan eficiente cómo lo que existe. Lo que existe son como los mapas de Karnought de la electrónica digital, cajas negras muy bien comprimidas con la menor cantidad de componentes. Pero cuando el sistema se vuelve complejo, como una cpu, no puedes hacerlo así y debes tener una circuitería más entendible para un humano. Pues algo así puede que deba suceder con una IA que razone, debe seguir ciertos pasos en su construcción que estos modelos se están saltando. Si se quiere llevar a una red neuronal, esta red neuronal no será una caja negra, serán multi capas donde cada capa tendrá su sentido y sus neuronas una función concreta. No sería necesario realizar esos proceso de comprensión como el de Anthropic que ha logrado descifrar el aprendizaje interno. Yo las llamo redes neuronales orientadas a objetos. Una IA que razone deberá basarse en este nuevo tipo de redes neuronales. El enlace es donde tengo ese texto teórico donde analizo cómo las mentes naturales se fueron haciendo más complejas con el paso del tiempo: www.lawebdelprogramador.com/temas/Inteligencia-Artificial/917-Analisis-a-la-Inteligencia-Natural.html
ud sabe si algo esta bien o mal gracias a un tercero, no se puede construir un modelo de lenguaje basado en un solo llm. hay que mezclar varias técnicas de inteligencia artificial para hacer soluciones potentes usando chains, agentes RAGS, y arquitecturas que cada día son mas novedosas, pero no puede razonar como humano solo simula gramaticalmente una forma de razonamiento basado en un entorno o marco conceptual que la misma arquitectura tiene que construir. esto es novedoso y se esta experimentando, ademas antropic solo se copio del concepto de grafo, entidad-relacion. pero hay muchos paradigmas de pensamiento-razonamiento, solo hay que encontrar el mas funcional, ademas no se sabe como funcionan las neuronas humanas, se ha dicho ya en innumerables clases de estos expertos, ellos solo experimentaron bajo un supuesto y les funcionó, illya sutskever lo comenta en sus videos de stanford university, etc disponibles en youtube que aconsejo a todo el que quiera aprender algo sobre LLMS. pero sin duda el enfoque que has usado es interesante, y como humanos debe empezar a entender como funciona nuestro razonamiento de alto nivel mas que nada para intentar simular los pasos que nos quedan en busca de un razonador experto.
Me gustaría resolver esta crítica constructiva y es saber si solo para mi celular tu voz se oye tan bajo y en serio debo subirle todo el volumen para entender o así es en general con todos? 🔈🔉
AGI Gamma es la precursura.. Aun asi open ai utiliza tecnicas base que se filtraron a su modelo de lenguaje.. La tegnologia avanzada gamma aun no esta disponible para open ai
Para que aparezcan las emociones según Freud el cerebro tiene 3 instancias, el Ello, el Yo y el Súper Yo. Son 3 personas o modelos en un mismo cerebro. La red neuronal más fuerte es la que toma el control del modelo. El Ello es los deseos internos del individuo, el Súper Yo es la Moral que sigue las normas sociales y el Yo debe decidir a cual dejar aflorar. Tener 1 solo modelo probablemente no va a generar el caos necesario, otros modelos deben perturbarlo internamente, para que aparezca esa vocesita interna. Pero ese tipo de Inteligencias pueden ser muy peligrosas.
Lo de Q* es Strawberry que decepción pense que era Quantum AI. Todos estos estages de Open AI me paracen innovavion 0, no ofrencen ninguna tecnlogia nueva, a mi juicio. Es mas concentar cosas con prompt que ya existen. No son modelos nuevos innovadores. Son mas bien refinamientos y soltar cuerda segun vayan funcionandol las cosas.
Lo de que OpenAI use la IA para investigar y programar es una locura: es como si una empresa que fabrica máquinas de escribir usase máquinas de escribir para anotar los pedidos. Se viene la sincronicidad, amigues.
Es bastante gracioso que crean que al llegar a IAs tan avanzadas nosotros vayamos a seguir teniendo el control, o que ellas estén trabajando para nosotros, jajajaja.
A mi, todo esto que comentas se me parece más a añadir un nivel más de heurísticos (el cálculo de los pensamientos) que a tener verdadero razonamiento. El razonamiento implica siempre dos cosas: Tener en todo momento N espacios de soluciones posibles activos y Un algoritmo para navegar por ese espacio de soluciones posibles. Este Q* no aborda ninguno de estas dos cosas. Me parece que será otro buen truco de magia que se añadirá a GPT4 para crear un buscador mejor, pero no un sistema que razone.
la explicación de STaR es incorrecta, las anwers que utiliza para rehacer el texto no son los que ella da, los da el propio dataset de entrenamiento, lo único que da es el razonamiento, por eso está en rojo!
No, es correcta. El color azul indica qué información está presente en el dataset y el rojo la exclusivamente generada por el modelo. Pero el modelo también genera su propia respuesta en cada iteración, y es con esa respuesta (y^) con lo que se decide qué camino tomar (se evalúa si y=y^). En el apartado 1 y en el 3.1 lo explican: "To overcome this issue, we propose rationalization: for each problem that the model fails to answer correctly [es decir, que no responde bien y /= y^] we generate a new rationale by providing the model with the correct answer"
00:00 🎥 Introducción a la Sesión
- Resumen de los acontecimientos recientes,
- Concéntrese en el progreso y las filtraciones de OpenAI.
02:06 📜 Primer análisis de fugas
- Detalles de la reunión interna,
- Cinco niveles de evolución de la IA propuestos por OpenAI.
04:10 🧠 Razonamiento del desarrollo de la IA
- Introducción del concepto de "razonador",
- Discusión sobre las capacidades actuales de razonamiento de la IA.
07:01 🖥 Sistemas de agentes
- Sistemas que pueden tomar acciones,
- Aplicaciones potenciales tanto en el ámbito virtual como físico.
09:20 🔬 IA en la ciencia
- La IA contribuye al descubrimiento científico.
- Aprendizaje profundo 3.0 y su potencial.
10:50 🏢 IA organizacional
- Sistemas multiagente en tareas organizativas,
- La naturaleza especulativa de los niveles más altos de IA.
12:27 🍓 Proyecto Strawberry
- Strawberry como nombre en clave para la IA de razonamiento avanzado,
- Su conexión con el proyecto Q* anterior.
16:43 🔍 Aplicaciones de fresa
- Especulaciones sobre los modelos de fresa,
- Potencial integración en futuros proyectos de OpenAI.
19:01 🔍 Buscar desafíos de GPT
- - Discusión sobre los desafíos y el potencial de Search GPT.
Comparación con integraciones de búsqueda existentes (por ejemplo, Copilot, Perplexity).
21:08 🍓 Capacidades de Strawberry
- Introducción a la Fresa como técnica post-entrenamiento,
- Potencial de la fresa para mejorar la capacidad de razonamiento.
23:41 🧩 Concepto de autorrazonamiento
- Explicación del enfoque del autorrazonador,
- Referencia a un artículo relacionado de Stanford y Google Research.
26:11 🚀 IA de razonamiento avanzado
- El objetivo de Strawberry de mejorar las tareas a largo plazo de la IA,
- Aplicaciones potenciales en la resolución de problemas científicos y matemáticos.
38:14 🤔 Mejora del razonamiento de la IA
- Explicación del razonamiento de la IA y sus limitaciones actuales.
- Discusión sobre posibles mejoras mediante ajustes y razonamiento de conjuntos de datos.
40:30 🔄 Datos de razonamiento sintético
- Método de generación de datos de razonamiento sintético para ajuste fino.
- Uso de IA para crear y evaluar rutas de razonamiento para mejorar la capacitación.
43:17 🌟 Acercamiento ESTRELLA
- Vista detallada del método STAR para mejorar el razonamiento de la IA.
- Concepto de mejora iterativa a través de datos de entrenamiento autogenerados.
46:18 🔍 Adopción de OpenAI
- El uso de OpenAI de STAR y la investigación relacionada,
- El impacto de una implementación rigurosa y a gran escala en los avances de la IA.
49:13 📈 Desafíos de escalabilidad
- Desafíos para ampliar el proceso de capacitación con conjuntos de datos detallados,
- El enfoque de OpenAI para superar estos desafíos con amplios recursos.
52:02 💡 Direcciones futuras
- Potencial futuro de las mejoras en el razonamiento de la IA.
- Integración de múltiples rutas de razonamiento y procesamiento paralelo avanzado.
58:25 🧠 Proceso de razonamiento paralelo
- Explicación de la generación de hipótesis de razonamiento paralelo.
- El modelo se entrena para seleccionar la mejor hipótesis de razonamiento para cada token.
01:00:00 💻 Eficiencia computacional
- Abordar el costo computacional de generar múltiples rutas de razonamiento,
- Técnicas para una implementación eficiente, como la atención enmascarada.
01:02:02 📊 Mejoras de rendimiento
- Comparación del desempeño de referencia versus modelos con razonamiento paralelo,
- Demostración de mejoras significativas en el rendimiento con procesos de razonamiento más profundos.
01:04:13 🚀 Aplicaciones futuras
- Especulación sobre las aplicaciones prácticas del razonamiento mejorado de la IA.
- Posibles mejoras en la asistencia a la programación y reducción de las alucinaciones.
01:06:07 🔧 Impacto en el mundo real
- Discusión sobre cómo estos avances podrían traducirse en beneficios en el mundo real.
- Las estrategias potenciales de OpenAI para comercializar capacidades de razonamiento mejoradas.
Gracias!
@@ricardoalonzofernandezsalg2283 Gracias, no me gusta cuando no van a los bifes, hacen videos y tratan al espectador como boludo, explican o se ponen reiterativos con boludeces. Las cosas son rápidas y concisas, el que entendió entendió y sinó que se joda o vuelva el video y mire nuevamente.
de mucha ayuda para los que no tenemos tiempo, gracias.
Que IA usaste?
X2, que IA usaste para generar ese índice/resumen?
Excelente Carlos !!! Clarísima tu explicación. Te sigo desde la Pandemia y me has enseñado tanto que no sé como agradecerte que compartas no solo los papers sino que además los expliques de forma muy sencilla. Mas allá de hacerlo en español para todos aquellos que no dominan fluidamente el ingles. Mil gracias !!!
¡Gracias!
¡Gracias!
Sobre el tema del razonamiento (como habilidad emergente), hay muchos estudios que vinculan al lenguaje con el razonamiento. Si a un niño le enseñas lenguaje, le enseñas logica, causa efecto, roles y acciones, entre muchos otros elementos. Otra forma de decirlo, es que al intentar crear lenguaje coherente por un software, ese lenguaje debe ser logico a la lectura, como si detras hubiera un razonamiento que se desea expresar. De ahi que muchas veces al lenguaje se le define como un dispositivo sistemático del pensamiento lógico, que permite definir y expresar nexos entre sujeto,
la acción, la analogía, el pensamiento crítico, la sensibilidad, la imaginación y la creatividad. Lo interesante de este punto es que hay IAs entrenadas con diferentes lenguajes, por lo que podria ser esperable que una IA China generativa de texto pueda tener un set de habilidades emergentes de razonamiento en diferente nivel que una entrenada con Ingles, latin, aleman, etc. Seria bueno realizar benchmarks pensando bajo la logica de analizar el desempeño que tienen los lenguajes como codificadores del pensamiento, la comunicacion y el razonamiento.
@@timmywhitex El Lenguaje es el Chasis de la Inteligencia y hay distintos tipos de bastidores, no es lo mismo pensar en inglés que en francés, alemán, japonés o español. Las IAs actuales sin duda tienen un razonamiento dado por el lenguaje porque muchos modelos están ciegos y sordos, no captan ni video ni audio y sin embargo se defienden bien. Pero pasan por las mismas limitaciones que las personas ciegas o sordas nacimiento. Obviamente la Multimodalidad y la Natividad cambiarán esto a futuro.
Por eso lo Niveles que propusieron los de Open AI son buenos, ahorita tenemos Modelos que se pueden comunicar pero no tienen un Sistema que les permita razonar, solo son Cajas Negras a las que les metes algo y te escupen otra cosa, no son capaces de inferir que lo que tratan de decir es incorrecto en tiempo real, creo que el mayor reto sera crear un sistema asi sin que ocupe mucho computo.
Los Niños nacen con la capacidad de Razonar aunque no les enseñes a Comunicarse o almenos son capaces de Asociar ciertos patrones y crear su red de conocimientos por si solos, algo que estos Modelos no son capaces de hacer, estamos obligados a entrenar IAs con una cantidad inmensa de Datos.
Hasta que no vea que diseñen una AI que pueda recibir una gran variedad de Datos y con pocos Datos puedas comunicarte como lo haces con un ChatBot actual no creere que el ChatBot razona, no veo a nadie llendo a preguntar por una Direccion y esperar que la persona sepa la Respuesta, una Persona no necesita de una cantidad ingente de informacion para Razonar y Razonar no significa que la respuesta sea correcta y mas aun si algo en tu Cabeza dicta que tu respuesta es la correcta por mas capacidad de Razonamiento que tengas dificilmente aceptaras como Verdadera otra Respuesta.
Supongo que me fui un poco lejos, pero si bien el Lenguaje y el Razonamiento estan fuertemente vinculados, si no hay un sistema constatemente activo de nada sirve que seas bueno comunicandote y los Modelos actuales dudo que sean baratos mantenerlos siempre activos.
Técnicamente aplicaría la teoría de Sapir-Whorf
@@ronny595 La mal llamada débil, no el hombre de paja de la "fuerte", a menos que hablemos de un "lenguaje trascendente".
@@vintack-g8069 te recomiendo investigar las redes neuronales líquidas, Carlos debería hacer un video de ellas porque han volado un avión íntegramente con redes neuronales líquidas y solo contenían 20.000 parámetros siendo su consumo energético durante el entrenamiento ridículamente bajo y su inteligencia equivalía al de un modelo de 7 billones de parámetros y lo mejor o más aterrador es que pueden aprender en caliente en tiempo real con muy pocos datos directamente de su entorno, sea por aprendizaje supervisado o automático y todo eso es Razonamiento y Neuroplasticidad. Creo que eso responde a tu pregunta de si pueden razonar recibiendo tan pocos datos como los cerebros de Carbono.
Genial el "en vivo". Estamos (re)creando un verdadero cerebro, una lógica interna a la vez...
muy bueno, sigue explicando los avances con papers, sirve mucho
Fascinante. Me has dado la idea de implementar el Q* del razonamiento con el análisis de datos de los ejemplos alimentados para alinear las dos respuestas y unirlas en una mejor respuesta
"Bootstrapping" en estadística se refiere a un método de re-muestreo que permite estimar la distribución de una estadística a partir de una muestra, en especial cuando se dispone de un conjunto de datos limitado y no se pueden hacer suposiciones suficientemente sólidas sobre la distribución de la población. Mejor dicho, Bootstrapp no es otra cosa que repotenciar (o incrementar, o hacer más exactos, o más productivos) los datos de entrenamiento.
Y eso viene de una expresión popular que significa algo como sacarse adelante a uno mismo, apañarselas
Gracias!! ❤ tu contribución es muy importante para mi
Lo pude ver recién hoy pero no quiero dejar de destacar lo excelente del contenido. Puntos plus por los papers 👏
*GPR5* (Generative Post-Trained Reasoners)
Según lo que Carlos nos cuenta creo que ese sería un nombre más actual y preciso para describir el tipo de IAs que se vienen jaja
pensé lo mismo y me sumo al nombre
aunque quizá sin el 5 y solo GPR o GPTR
Carlos!! Parece que OpenAI acaba de liberar el nuevo modelo chatGPT-4o mini. En el playground hay dos variantes🎉
Me encantaría ver unas Nivel 4 con acceso a impresoras 3D, para llegar a obtener inventos generados y probados por IAs
Magnífico, muchas Gracias por tu trabajo el mejor de habla hispana y de los mejores del mundo
Que interesante análisis sobre el futuro y desarrollo de la IA. Es entretenido ver como los conocimientos se entrelazan, mezclando optimización de procesos con neurociencias, el aprendizaje constructivista o el valor del feedback para el aprendizaje. Ahora, mi temor es que, no se si lograr una IA a nivel 5 sea lo mejor para nuestra existencia.
Una de las cosas que más anhelo es un chat entrenado con todos los documentos científicos y libros que se encuentran en scihub y en libgen, creo que es de las mejores cosas que podrían sacarse al público (aunque claro, sería saltándose muchos temas de derechos de autor)
0:40 "Envisionar" no existe hombre. Usa mejor imaginar, concebir, visualizar... buen video. Gracias.
Osea, que para auto entrenarse en razonamiento (2ª fase) la IA va a aplicar el método científico, evidentemente tiene todo el sentido del mundo… ahora solo hay que ciclar a velocidad de vértigo y ya…😜
Muy interesante… este camino tiene muy buena pinta, podría hacerse con modelos pequeños como llama 3…
muy bueno !esta clase de videos es increible , aprovecho para mencionar que e modificado el stable diffusión web ui , ahora me procesa mp4 con el modelo generativo z123 , eso quiere decir que si inserto un video mp4 me lo procesa desde diferentes vistas , codigo propio.
Que tal los resultados?
Muchas gracias, por todo el trabajo divulgativo, y la oportunidad. Esto de la «Fresa» es lo más parecido a un proceso «abductivo» en un proceso deductivo de base bayesiana. Será muy interesante lo que Anthropic, puede hacer, combinando esta característica de proceso, con el hallazgo de las «neuronas concepto».
Aparte creo que, la «fuga» es parte de la respuesta de mercadeo, a la «trinchera» que abrió Google, con el tema del consumo de energía, para ir «descalificando» a la competencia.
De nuevo, mi sincera gratitud.
Video ESPECTACULAR.
MEGA CALIDAD DE INFORMACIÓN
No me pierdo ninguna misa es demasiadoooo buenisiimooo
Cómo siempre gracias por compartir
por que aun no se puede usar el modo conversacion que mostraron para Gpt4-o, o el tema de generacion de videos.
Eso está disponible en la versión paga no?
Ya han dicho que no va a estar disponible por lo menos hasta finales de año.
Ya se puede usar en la versión de paga.
@@100prehumano No, aun no esta ni siquiera en la de pago.
yo tengo la version de pago y no tengo ese modo, hay el mismo modo para hablar de siempre sin interrumpir y todo eso. (no se si para los de pago de USA de pronto esté)
Muy interesante la información y explicación que haces sobre el futuro de Openai, gracias.
Gracias!
Excelente! Gracias por el vídeo :)
En el ultimo modelo de qstar, super interesante, se esta replicando exactamente, lo que lei alguna vez de acuerdo antropologos y linguistas, el mecanismo de evolucion de la inteligencia humana. Asumiendo que el cerebro de los seres vivos por lo general en su comportamiento aprenden de patrones, y con esto se llega a completar la proxima letra, y que a partir de alli surge el LLM, que a su vez empieza a hablar simulando interacciones de chat, de la misma manera se supone los humanos primitivos empiezan a comunicarse entre ellos, a hablar persiguiendo un proposito, que a su vez estos conceptos de manera interna empiezan a crear dialogos ya a lo interno, que generaria entonces una inteligencia funcional bajo ese concepto que relatan en el paper de "cadena de pensamientos".... lo mismo que hacemos nosotros mismos durante el dia en esa cadena de pensamiento en nuestra mente !!!, y solo con una extension del prompt.
Ya en el nivel 3 aparece skynet. La gente va a decir que no es capaz pero solo falta que alguien le ponga el prompt adecuado "Quiero que planifiques y ejecutes el desarrollo de IA para ser el dueño del mundo"
La idea de autoperfeccionar su razonamiento me parece buena siempre y cuando no vaya en detrimento del pensamiento lateral del que vamos muy necesitados y escasos.
No tengo muy claro que esta técnica vaya por este camino.
El nivel 3 cuando dijo "agente" me hizo recordar la película Matrix, en donde un agente (Smith) empieza a tomar decisiones por fuera de su programación debido a que Neo lo hackea sin querer cuando se mete dentro de él... claramente espeluznante.
Gracias por la info
Yo he pensado en una estrategia diferente, pero compatible de aprender a razonar. Mi idea es "piensa antes de hablar", porque yo creo que la IA ya tiene esos pensamientos rápidos que se nos ocurren, pero que pueden ser tonterias cuando los analizamos. Mi idea consiste en generar estas ideas pero considerando diferentes ángulos de la situación, y generar varias respuestas posibles, luego analizar esas distintas perspectivas y generar una respuesta razonada. Pienso que se puede entender fácilmente la idea pensando en la película de intensamente, donde cada respuesta se considera con un sesgo como Miedo (que buscará riesgos) y otros modelos con otro tipo de sesgos para que se tenga una vision amplia de los problemas planteados.
Es interesante esa respuesta pero no se adapta a la forma en que esta estructurada una red neuronal . Aunque se podría complementar con algoritmos eso requeriría intervención externa . Pero el punto que propones " en sí " si es interesante y quizá se acerque a la forma que usan los demás animales que no poseen un lenguaje como el nuestro para aprender . Una nueva forma de pensar el diseño de una IA .
@@gabrielalejandromarturano8761 si, se sale de la estructura de una red neuronal, pero sería más eficiente que la que se propone en el artículo, pues aquí el tiempo se multiplica por el número de modelos con perspectivas diferentes, más el que hace el análisis, y no por razonar cada palabra de la respuesta.
Brutal, gracias por la explicación. Muy interesante e ilustrativo.
Muy interesante, gracias Carlos!
Hola, un apunte que ya noté en el último directo. El volumen del micrófono se escucha bajo. Necesito poner el volumen a tope para oírte bien, no es un problema grave hasta que te meten la publicidad y pegas un salto del copón😅
Grandísimo trabajo como siempre.
Mmmm lo reviso! Es raro porque me reveo el directo y no lo escucho muy bajo. Pero veo a algunos que decís que sí. Intentaré darle más gas al micro en los próximos directos. Gracias!
@@DotCSVa mí me pasa igual... sobretodo lo del anuncio 😂
@@DotCSVNo es una gran diferencia pero se nota. Lo que normalmente oiria en el 70% del volumen ahora tengo que poner el 100% para poder oír en la calle con auriculares.
Muy buen video, super interesante y un contenido unico para los que queremos entender "la caja negra". Gratz
Carlos , igual me podrás sugerir...estoy en el minuto 43 y he decidido escribirte y...me hago la pregunta...esto ya lo puedes hacer por ejemplo con semantic-kernel y un almacenamiento en memoria de los razonamientos y hacerte un modelo propio mejorado , al ser un output sobre el modelo , cualquier programador podria conseguirlo ...seguro que este camino tiene algún error ...
Pero ....
Me encantan estas misas.
Esto es justo lo que se necesita en la conducción autónoma...
Interplay no es interjuego. Excelente video.
Nate Gentile 🤣 1:08:15
Me ha molado y lo he entendido perfecto
Una vez alcanzado el Razonamiento y capacidad de ejecutarlo con otras herramientas o crearlas (Nivel 1, 2 y 3).
Después ese razonamiento también implica descartar cuando ninguna solución planteada es valida. Admitida la ignorancia le permitirá plantear y descartar posibles soluciones hasta encontrar la "Innovacion" mediante brainstorm interno. (Nivel 4)
Finalmente solo le queda monitorizar los cambios y compararlos con el razonamiento anterior para adaptarse. (Nivel 5)
Se ha entendido muy bien..!!!
Excelente
"Envisiona" se dice "visualiza" en castellano. Gracias por el vídeo!
Saludos a todos
Te imaginas un Gpt-10 con un Q-star 5.0 aplicado siendo entrenado y corrido en un hardware de computación cuántica 🤯
Nice, thank you a lot
Uf qué ganas de la revolución de las IAs explotando y derrepente viendo la tecnología avanzar exponencialmente
Pues.... técnicamente tenemos varias décadas viendo la tecnología avanzar exponencialmente.
A veces se nos olvida porque ya es parte de nuestra vida, pero el iPhone 1 salió apenas hace 15 años, y el primer android comercial apenas 14 años. Y eran basura comparados con los actuales.
Hace 20 años la mayoría de las casas no tenían acceso a computadora o acceso a Internet. Ahora hay básicamente un dispositivo por persona conectado a Internet. Y miles de ejemplos más
Sobre el sonido en RUclips. He notado que ha bajado tanto que hay que subirlo a tope y no sólo en éste vídeo. Sin embargo cualquier otro vídeo se oye perfectamente en modo normal. A ver si va a ser RUclips 😅
muy interesante!
Pero los sistemas de agentes no existen ya?
Video 10/10
Comentarios 1000/10
lo de nate es increíble, es otra persona completamente
¿Alguien más piensa que 'Strawberry' es solo una táctica de distracción de OpenAI? ¿Qué están escondiendo realmente?🍓🤔
Hay algún curso de analista de promts
A mi me parece que una descomposicion del proceso y la retroalimentacion de los resultados es una idea muy brillante. Pero cuantos niveles permitimos de esta descomposición? El ejemplo reporta unicamente dos niveles con n-paralelos al segundo nivel. Pero el numero de niveles puede ser mucho más grande. Este numero maximo tendria que ser limitado en modo variable dependiendo de las "convinciones" del modelo o del hecho que ya recurrio en el pasado los niveles superiores.
Me pregunto como se hace con mantener tiempos de respuesta y consumo de energia dentro de limites aceptables. Esta claro que ni podemos esperar minutos y tampoco consumir kilo Watts por la duma de fos numeros o por una respuesta sencilla.
Interesante propuesta . Cuestiones como esta me llevan a sospechar que una IA que razone no funcionará en las estructuras como las actuales . Se requiere otro tipo de enfoque . ¿ Cuál ? Habría que discutirlo en un foro de brain storming .
Para seguir con la analogía antropomórfica, están buscando desarrollar la parte inconsciente. Ya tienen desarrollada la parte consciente que trabaja en el presente, en el ahora, dando respuestas inmediatas. Y lo que buscan es que la IA desarrolle la parte inconsciente donde se hacen los procesos en segundo plano y son más profundos, utilizando mayor cantidad de recursos.
Buen contenido
OpenAI poco a poco convirtiéndose en E-Corp de Mr Robot D:
Me gusta este acento.¿ Es canario? es una combinación de ambos mundos.
Hola Carlos, los procesos en paralelo o dialogo interno del 👼 angelito y el diablito 📛 para ver cual es la respuesta más correcta, entiendo que serían como unas sub-Ias hablando con otras Sub-Ias esperando la decisión de una IA juez ¿no?
Saludos.
POR FAVOR, ALPHAFOLD3, HABLA DE ELLO.
El 8 de mayo salió una versión previa del paper en Nature.
Guua minuto 59, razonamiento en cada prediccion de token, menuda cantidad de calculo y este razonamiento de cada step como se almacena para que después le sirva en un futuro , si es que tiene sentido decir como se almacena...
A chatgpt le hacen cosas tan sencillas como un sistema para gestionar las conversaciones, ya sea por carpetas, por topics, etc. Yo tengo un revoltijo de mis conversaciones y a veces necesito revisar algún proyecto que he estado trabajando
Que ganas de tener ya la nueva generación de chat.
El gpt4 me ayuda muchísimo a programar.
¿Has probado copilot?
Realmente GPT4 programa mejor que el 3.5? Porque el 3.5 es rápido parto falla mucho
Hasta que ya no nos necesiten más a los programadores si llegan hasta donde dicen querer llegar, es un arma de doble filo
dale un vistazo a claude 3.5, a mi me ha dado resultados superiores, incluso diría bastante superiores a gpt-4o
@@J.0.si, es mucho mejor. Pero mejor es claude 3.5
Es verdad que muchos de los avances se IA se han pausado este año por el tema de las elecciones en Estados Unidos?
Porque la IA aun no es capaz de persivir el tiempo, sería fascinante ver a una IA con la capasidad de saber cuanto tiempo pasó desde un suceso, la Persepcion del tiempo y la inteligencia tiene una relación muy intrigante, y sospechosamente fundamental para el razonamiento.
Poder responder en un tiempo espesifico a una petición hace más realista la comunicación de la IA y el ser humano ya que la IA tiene una respuesta predecible en tiempo de respuesta delimitado por el coste de prosesamiento.
Hijo mio, revisa tu ortografía con las s y las c.
Algo que no entienden es el "no".
A veces me pasas en el que le digo "no hagas esto" y la respuesta es "listo, no lo hago" y lo hace, me pasa muy seguido con dalle
Sesgo del elegante rosado
Te digo que no pienses en un elefante rosado... en qué piensas?
@@luisdcardenas en un señor vestido en un traje elegante de color rosado, porque me quedo pegado en el error
@@ZetaZ116 JAJAJAJAJA acabo de darme cuenta.
Editar comentarios no es elegante. 😂
creo entender pq se va a aplicar tanto a razonamiento matemático, codificación, etc es obligatorio disponer de un sandbox donde poder aplicar su razonamiento y ver si es válido o no sin intervención humana y esto sólo puede hacerlo con retroalimentación 100% fiable como es la formulación matemática, física, química, etc o entornos donde probar código, poder virtualizar físicas, etc pero lo veo complicado para aplicarla en entornos complejos con multiples variables
la idea general tampoco es tan increíble, supongo q lo portentoso es bajarla a tierra
No me queda claro que la máquina sepa razonar. Son filtros que ayudan a mejorar las respuestas pero no da la impresión de que tenga el conocimiento de una lógica de proposicional, de primer orden o cualquier otra. Es decir, no tiene capacidad de autocrítica, no sabría si lo que ha construido está bien o no. No sería capaz de saber si la demostración matemática construida está bien hecha.
Por ahora, opino que todo lo que han creado está muy bien por lo eficiente que son para conseguir lo que consiguen. Pero la creación de una IA que razone puede requerir borrón y cuenta nueva, un proceso totalmente diferente. A este respecto me gustaría que algún video analizara cómo funciona Project Debater de IBM, por si tuviera algo diferente en su interior.
Yo escribí un documento llamado Inteligencia Natural que analiza como han evolucionado las inteligencias creadas por la naturaleza desde la primera neurona. Es todo teórico y, aunque intuyo cómo se podría implementar, no sería tan eficiente cómo lo que existe. Lo que existe son como los mapas de Karnought de la electrónica digital, cajas negras muy bien comprimidas con la menor cantidad de componentes. Pero cuando el sistema se vuelve complejo, como una cpu, no puedes hacerlo así y debes tener una circuitería más entendible para un humano. Pues algo así puede que deba suceder con una IA que razone, debe seguir ciertos pasos en su construcción que estos modelos se están saltando.
Si se quiere llevar a una red neuronal, esta red neuronal no será una caja negra, serán multi capas donde cada capa tendrá su sentido y sus neuronas una función concreta. No sería necesario realizar esos proceso de comprensión como el de Anthropic que ha logrado descifrar el aprendizaje interno. Yo las llamo redes neuronales orientadas a objetos. Una IA que razone deberá basarse en este nuevo tipo de redes neuronales.
El enlace es donde tengo ese texto teórico donde analizo cómo las mentes naturales se fueron haciendo más complejas con el paso del tiempo:
www.lawebdelprogramador.com/temas/Inteligencia-Artificial/917-Analisis-a-la-Inteligencia-Natural.html
ud sabe si algo esta bien o mal gracias a un tercero, no se puede construir un modelo de lenguaje basado en un solo llm. hay que mezclar varias técnicas de inteligencia artificial para hacer soluciones potentes usando chains, agentes RAGS, y arquitecturas que cada día son mas novedosas, pero no puede razonar como humano solo simula gramaticalmente una forma de razonamiento basado en un entorno o marco conceptual que la misma arquitectura tiene que construir. esto es novedoso y se esta experimentando, ademas antropic solo se copio del concepto de grafo, entidad-relacion. pero hay muchos paradigmas de pensamiento-razonamiento, solo hay que encontrar el mas funcional, ademas no se sabe como funcionan las neuronas humanas, se ha dicho ya en innumerables clases de estos expertos, ellos solo experimentaron bajo un supuesto y les funcionó, illya sutskever lo comenta en sus videos de stanford university, etc disponibles en youtube que aconsejo a todo el que quiera aprender algo sobre LLMS. pero sin duda el enfoque que has usado es interesante, y como humanos debe empezar a entender como funciona nuestro razonamiento de alto nivel mas que nada para intentar simular los pasos que nos quedan en busca de un razonador experto.
Me gustaría resolver esta crítica constructiva y es saber si solo para mi celular tu voz se oye tan bajo y en serio debo subirle todo el volumen para entender o así es en general con todos? 🔈🔉
Vendrá la crisis de "Ouf of memory" ó "Memout".
AGI Gamma es la precursura.. Aun asi open ai utiliza tecnicas base que se filtraron a su modelo de lenguaje..
La tegnologia avanzada gamma aun no esta disponible para open ai
Podrias dejar los links a los articulos cientificos? 👍🏽
Acabo de actualizar la descripción con los links :)
Se viene la AGI
Básicamente, se resume a : open ai esta usando agentes para generar una ia más potente.
Interesante el algrotmo de aprendizaje de razonamiento . Se podrá realizar algo analogo a aprender ética moral y emociones ?
Para que aparezcan las emociones según Freud el cerebro tiene 3 instancias, el Ello, el Yo y el Súper Yo. Son 3 personas o modelos en un mismo cerebro. La red neuronal más fuerte es la que toma el control del modelo. El Ello es los deseos internos del individuo, el Súper Yo es la Moral que sigue las normas sociales y el Yo debe decidir a cual dejar aflorar. Tener 1 solo modelo probablemente no va a generar el caos necesario, otros modelos deben perturbarlo internamente, para que aparezca esa vocesita interna. Pero ese tipo de Inteligencias pueden ser muy peligrosas.
Strawberry es obviamente una auto-referencia a la muy comentada y ridiculizada incapacidad de GPT para contar el número de r en la palabra strawberry.
Te reto a ti @Carlos a que implementes el paper de start
Saman se fue cuando se había planteado lo de Q ... Y eso en qué quedó; o fue una maniobra para forzar la reentrada y negociacion$
Cuanto un video de GCNs?
Lo de Q* es Strawberry que decepción pense que era Quantum AI.
Todos estos estages de Open AI me paracen innovavion 0, no ofrencen ninguna tecnlogia nueva, a mi juicio. Es mas concentar cosas con prompt que ya existen. No son modelos nuevos innovadores. Son mas bien refinamientos y soltar cuerda segun vayan funcionandol las cosas.
Me gustaria que ChatGPT u otro modelo incorporara la variable tiempo, por ejemplo responde a X dentro de 20 segundos.
Lo de que OpenAI use la IA para investigar y programar es una locura: es como si una empresa que fabrica máquinas de escribir usase máquinas de escribir para anotar los pedidos.
Se viene la sincronicidad, amigues.
jajaja ... les puede salir el tiro por la culata
Hola soy strawberry #openai
Fun fact: en alemán EU se pronuncia OI:
Freud => "Froid"
Reuters => "Roiters"
Lo de agentes me recuerda a matrix... todo este episodio me recuerda a matrix
Es bastante gracioso que crean que al llegar a IAs tan avanzadas nosotros vayamos a seguir teniendo el control, o que ellas estén trabajando para nosotros, jajajaja.
we got OpenAI 2 before GTA 6
Lo simple es bello (Occam): Q* es A* con guiado por razonamiento.
A mi, todo esto que comentas se me parece más a añadir un nivel más de heurísticos (el cálculo de los pensamientos) que a tener verdadero razonamiento. El razonamiento implica siempre dos cosas: Tener en todo momento N espacios de soluciones posibles activos y Un algoritmo para navegar por ese espacio de soluciones posibles. Este Q* no aborda ninguno de estas dos cosas. Me parece que será otro buen truco de magia que se añadirá a GPT4 para crear un buscador mejor, pero no un sistema que razone.
Coincido . Creo que el proceso de razonamiento requiere ir por otra via . ¿ Cuál ? Eso debería discutirse en un foro de brain storming ...
la explicación de STaR es incorrecta, las anwers que utiliza para rehacer el texto no son los que ella da, los da el propio dataset de entrenamiento, lo único que da es el razonamiento, por eso está en rojo!
No, es correcta. El color azul indica qué información está presente en el dataset y el rojo la exclusivamente generada por el modelo. Pero el modelo también genera su propia respuesta en cada iteración, y es con esa respuesta (y^) con lo que se decide qué camino tomar (se evalúa si y=y^). En el apartado 1 y en el 3.1 lo explican:
"To overcome this issue, we propose rationalization: for each problem that the model fails to answer correctly [es decir, que no responde bien y /= y^] we generate a new rationale by providing the model with the correct answer"
Te respondieron
Min 50: Revelado el secreto del exito de OpenAi... No les diré! Vayan a ver!
La misma estrategia de nuestro aprendizaje...
en otros vídeos decían que salía hoy ChatGPT Q*, ¿Sabes algo?
buen contenido, pero muy largo, tienes que resumirlomun poco 🤷♂️, animo