Para cumplir con ese 87% el modelo escupió 111 millones de tokens en pensamiento... Una absoluta locura. Por otro lado, ya se habían desarrollado soluciones con ~40% de cumplimiento, este mismo año.
Es simplemente refrescante ver un canal donde se hable con coherencia, sin contenidos sensacionalistas. Por fin un canal sobre tecnología decente y serio. Buen trabajo! 👍
Estoy de acuerdo. Recomendaría leer 《El Mito de la Inteligencia Artificial》de Erik J. Larson. Trata justo las razones por las que la IA no puede pensar como nosotros los humanos, escrito en lenguaje fácil y fluido.
Excelente manera de explicar las cosas y lo que me gusta es no te andas con rollos, ni términos muy rimbombantes ni como la mayoría de gente que habla de IA que todo lo exageran para ganar vistas. ✌️
Ciertamente los modelos aun no pueden mejorarse a si mismos pero estaria interesante ver si son capaces de ayudar a diseñar modelos mejores. Es decir, si le cuentas a un modelo que estas usando tensores para entrenar un LLM con esta arquitectura, tantas capas, tales funciones aqui y alla y le preguntas como mejorarlo, lo mismo nos da una respuesta que nos deja wow. Que a lo mejor la forma de llegar a una AGI pasa, primero, por herencia
El hito es crear un tipo de recompensa para que dicha IA encuentre una solución a una respuesta matemática que nunca ha visto. El problema es que según los científicos que saben del tema, es que si bien es bastante sencillo encontrar recompensas en entornos cerrados como los juegos de Ajedrez o el Go donde uno conoce las reglas del juego, es extremadamente difícil cuando se trata de matemáticas porque no hay una única regla que te diga cómo encontrar una solución a problemas matemáticos. Lo más cercano que han encontrado es que, si dejas que la IA piense por más tiempo, sí llega a resolver ciertos problemas matemáticos (Puedes ver en el minuto 4:28 que con esta técnica se resuelven el 25% de problemas matemáticos que la IA no conoce). Así que lo que se espera es que si escalan el poder a por ejemplo, x5 o x10, es probable que esa cifra de problemas resueltos aumente, al 30% o al 50%, no se sabe 😮😮
Me encanta cómo comunicas! Sin clickbait, claro, conciso y a la vez inspirador. Me encantan las metáforas; ayudan a entender de manera sencilla los conceptos. Te sigo hasta el final!!!
Me alegro de haber encontrado este canal :) Tiene pinta de ser lo que parece, un canal de referencia de lo que cabe esperar de los avances en IA, y otros temas relacionados sobre todo con la tecnología, además con un talento especial a la hora de explicar de manera inteligente los temas
El o3 mini se supone que ya va a ser lanzado en enero, y la version completa poco después. No es algo para un futuro lejano. Lo que no se sabe es cuándo llegará el GPT 5.
Excelente video Oliver... solamente no olvidar dos cosas... 1) que cuando el marketing y la tecnología se juntan suele ser perversos... 2) que no hay peor error la momento resolver un problema que tener respuestas correctas para preguntas incorrectas... y de pronto regresar a lo simple a veces nos ayuda [INFINITO: que no tiene fin]
@@danteskywatcher4750si realmente hubieras presenciado un nacimiento, sabrías que es la cosa más asquerosa y menos maravillosa que hay. Y los atardeceres, sí, muy lindos; tengo uno como fondo d pantalla; el tema es que ambas cosas son obra de la naturaleza, y acá la idea es ver hasta dónde puede llegar el Hombre
MOVR This coin got too much potential, the market is low, low supply and its was on 180$ in the pre bullrun Alt season is going to start soon, shall I buy Movr or nit ???
Oliver, yo he leído muchas definiciones de AGI que no implicaban que se pudiera mejorar así mismo, de hecho en los 5 puntos de AGI que plantea OpenAI ¿Eso no estaba implícito no? Para mi una AGI "cómo herramienta" es una IA que pueda realizar todas las tareas que puede ejecutar un humano mejor que la media de los mismos. No osbtante, si que estoy de acuerdo contigo en que O3 probablemente no sea ni eso, para mí es solo intentar llegar a algún acuerdo con dicho Benchmark para poder romper su acuerdo con Mocosoft.
Efectivamente. Fue una IA diseñada específicamente para romper el ARC-AGI y romper su acuerdo con microsoft. Aunque algunos dicen que nadie tiene acceso a los datos de entrenamiento de ARC... Estoy bastante seguro de que se la han colado a Chollet y se ha entrenado con ellas. No es normal que falle estrepitosamente en cosas que a un niño de 5 años le tomarían segundos y, en cambio, supera a un adulto en tareas de razonamiento. No hay por donde cogerlo. Hay gato encerrado SEGURO. Después de SORA, he perdido completamente la confianza en "Open"AI.
Oliver se contradice al decir que no esta claro aun la definicion de AGI pero al mismo tiempo critica a OpenAI por su definicion de AGI y empieza a dar su PROPIA definicion de lo deberia ser la AGI.Es un sin sentido porque talvez la definicion de OpenAI es la correcta.
@@HectorSs-qs4wu AGI es toda aquella IA que es capaz de realizar CUALQUIER tarea que puede realizar un adulto promedio, incluidas las tareas físicas. Así que, no. No tenemos AGI. Mover los postes de la portería de un lado a otro no cambia nada. AGI es eso y nada más. Luego podemos hablar de ASI.
@@changoviejo9575 Me refiero a tareas en la media humana y me refiero cómo herramienta, si te refieres a una tarea nueva se le podría enseñar o incluso como dices que pudiera aprenderla, pero no es lo mismo que pueda aprender una tarea nueva en especifico con datos que se le puedan dar a que se mejore así mismo porque entonces en un corto espacio de tiempo puede que tuvieras una ASI, así que si pudiera mejorarse asi mismo a ese nivel ya esta casi se podría considerar una ASI directamente. OpenAI lo que quiere es conseguir es una AGI cómo herramienta, no han prometido ni proactividad con auto-mejora ni consciencia. Y tendríamos que probar o3 para saber si al menos han conseguido eso. Una herramienta que sirva para todo haciéndolo todo mejor que el promedio de los humanos.
La AGI es la ia que crecera aceleradamente y ya no nos necesitara, pero podra darnos conocimiento nuevo sorprendente, incluso conosimiento que no podremos comprender, entonces creara algo que nos ayude a comprender.
Muy buen video, pero en el test ARC-AGI otros desarrolladores con mucho menos presupuesto y con modelos del lenguaje mucho mas limitados, consiguen un 53.5% no un 17%. Lo de llegar al 87% sin respetar las normas de gasto permitido (
te mereces el like. Lo que ocurre es que te ha faltado lo que le falta decir a todos los que tratan el tema: Lo que el público general conocemos es el carozo de la aceituna del vermut de la gran cena que manejan los especialistas. La fecha en la que llegamos a las AGI o las ASI puede que se demore o puede que hoy se esté alcanzando, o puede que ya haga mucho rato que se alcanzó. Ilusiones nos hacemos que conocemos lo que hay en este tema en realidad. La premisa en estos adelantos y en otros como la biogenética, computación cuática, armas destructivas, rejuvenecimiento, criptografía, etc es gastar 1 dólar en investigación y 10 en guardar el secreto. Ya somos simples gusanos para los que manejan estas cosas.
El tema es que seguramente esten usando estos modelos para mejorarlos a si mismos, en el sentido de que aprovechar la cantidad de computo que tienen para formularles preguntas que les permitan mejorar a los mismos modelos y obtener ideas u respuestas de eso, en ese sentido si se esta mejorando a si misma la ia y va a seguir asi
Es bastante probable que no se tenga una AGI completamente funcional hasta 2030. Otra cosa son "destellos" de AGI. A finales de 2025 no tendremos una AGI. Estoy seguro.
No estamos en la AGI, por poner un ejemplo, por más problemas de matemáticas que resuelvan bien, a día de hot no son capaces de resolver algo que aún un humano no ha resuelto (los famosos problemas del milenio como el recientemente solucionado de la conjetura de Pointcaré). Al igual que de momento, pueden pintar cuadros nuevos, pero nunca inventar un nuevo estilo).
Joder tío sencillamente brutal😮😮😮 se ve que eres catedrático. No me gusta comprar, pero has explicado lo inexplicable con una fluidez como muuuuy pocos. Thanx Bro 👌🏾. Subscrito. Period!!!👊🏾
El modelo fue fine-tunneado para los benchmarks que mostraron, y el costo de ejecutar solo el test ARC AGI rondó el millón de dólares en cómputo... Desde mi punto de vista no es muy viable y ni siquiera es justo llamar a O3 como AGI.
Fua! Incluso con la disponibilidad de la AGI mañana mismo, el costo computacional y energético asociado la convierta en una Mano de obra super premium. Inicialmente, la AGI se utilizará probablemente en aplicaciones de alto valor estratégico o económico, donde los beneficios justifiquen la inversión, como la investigación científica, el desarrollo de nuevos fármacos o la optimización de procesos industriales complejos. De ser asi no va a dar abasto la cantidad de trabajos que va a crear jaj (Los robot pasaran por el mismo proceso, mano de obra premium)
Está muy claro los test que están usando no son aptos para evaluar una AGI, los test para evaluar humanos no son representativos para evaluar modelos del lenguaje. Que los pongan a resolver la conjetura de Riemann si ya son tan inteligentes.
Lo raro es que ni el o3 puede corregir los nombres tan Malos que tiene los modelos... Cuando salió pensé que era una versión anterior al o4 luego recorde que es 4o
En lo personal pienso que si es capaz de autoprogramarse y desarrollarse estaríamos hablando de ASI, pienso que para AGI con ser capaz de pensar a nivel humano es suficiente. O3 es un razonador y se comporta como un razonador, muy bueno, pero está limitado a conversación y razonador aunque seguramente pueda ser programado para ser agente. Ciñiendonos a la definición de AGI de open AI le faltaría ser innovador y se capaz de gestionar una organización. Desde mi punto de vista si es capaz de hacer esto último ya se podría catalogar como AGI pues es capaz de hacer cosas a nivel general, como un humano. Pero vamos, opinión personal.
Un buen símil a lo que comentas sería la diferencia entre el ahorro y la inversión que aprovecha el interés compuesto. Ahora estaríamos ahorrando y teniendo cada vez más dinero, pero las AGI comenzarían a invertir ese dinero y a hacerlo crecer exponencialmente.
Muy buen vídeo y muy bien explicado, pero hay una cosa en que no entiendo del todo: hablas de que el modelo debe retroalimentarse, y en eso estoy de acuerdo. Pero dices que para retroalimentarse debe ser capaz de cambiar su estructura en tiempo real. Adaptar sus pesos vale, pero en cambiar la arquitectura... ahí no estoy de acuerdo. Considero que una de las formas de retroalimentación posible es que el modelo guíe a los humanos (o que los humanos guíen al modelo) en la optimización y desarollo del nuevo código y los nuevos modelos. Estoy bastante seguro de que OpenAI está invirtiendo bastante recursos en adaptar modelos para el desarollo de forma interna. Modelos ayudando a humanos, a construir modelos más rápidos que ayuden a los humanos a contruir modelos más potentes que ayuden a humanos....¿No consideras esto una forma de retroalimentación exponencial?
Muy de acuerdo, veo a todo el mundo diciendo o3, AGI alcanzada y no. Nos quedan muchos años para la AGI. Pero decir que se ha alcanzado la AGI da más visitas y por eso todo el mundo está haciendo un vídeo de eso.
Es muy fácil de hacer eso, bueno en teoría. Porque no se logró hacer que se pueda retroalimentar aún? Pero desde pequeño me imaginé una forma de hacer eso, aplicado a la biología pero se podría aplicar a la programación.
9:23 definir el infinito no es tan complicado. 1) Definición de andar por casa: es una cantidad tan grande que si se le añade una unidad más, permanece igual. 2) Definición matemática: es un cardinal igual o superior al del conjunto de números naturales.
Para mí SÍ es una AGI: Pero hay que entender que antes de ser una conpañia comercial, OpenAI es un laboratorio. Cuando Ilya se fue buscando la súper inteligencia OpenAI ya tenía el modelo o3 el cual ya se estaba considerando una AGI simplemente porque en propósitos generales es mejor al humano promedio, punto, no hay que darle más vueltas, el ARK AGI está precisamente diseñado para evaluar eso, no es nada complicado para los humanos pero las IAs eran incapaces de superarlo. Para mí sí es capaz de auto programarse y el contexto infinito es algo que también ya se logró pero Ojo, a parte es un producto comercial (o1 pro) y a parte un producto de laboratorio (o3). A parte es el SORA de Febrero (laboratorio) y a parte la mierda que nos dieron (comercial)
Yo tengo dudas, ya que el problema es que cuando trabajas con datos sintéticos, el modelo se va degradando con el tiempo: Es como si descargas una imagen .PNG y está la vuelves a subir y la vuelves a descargar, repites el proceso x100 o x100,000. Verás que en un punto los pixeles se empiezan a deformar y te encontrarás con una imagen de peor calidad que la imagen original. Yo creo que Sam e Ilya son muy conscientes de este problema y por eso no pueden decir "entrenemos una nueva IA, ChatGPT10, únicamente con datos sintéticos, 100% auto programable". De hecho, hay rumores de que Grok 3 y Claude 3.5 Opus se entrenaron de esta manera (con muchos datos sintéticos) y empezaron a encontrar problemas de rendimiento, por eso no sacaron estos modelos 😦😦
TOTALMENTE DE ACUERDO. Soy profesional del campo y coincido punto por punto con tu exposición. Si acaso discrepo con que estas LLM sean ANIs, para mi son ASI (ya que no son sistemas expertos, es decir muestran capacidades para las cuales no han sido entrenados, traducir no es una capacidad para la que la LLM se haya preparado, más bien es una capacidad espontanea que surge de la "comprensión" del lenguaje, sin entrar a valorar lo que significa o puede entenderse por eso).
Solo añadir una cosa. Creo que habría que hacer una reflexión sobre los benchmarks. Tengo las dudas de si parte de los entrenamientos de estos modelos se basan o usan respuestas validadas o conocidas de los propios benchmark. No sé si se está haciendo pero no me extrañaría. Si es así, están haciendo trampa. Hay que recordar que Openai NECESITA inversores urgentemente y que ahora hay mucha mucha competencia. Habría que recordar el caso de SORA.
Magnífico, me suscribo. Pero nombrar no es definir, nombrar es fácil, de hecho como has dicho a veces se nombran vacíos de concepto, porque nombrar es fácil, y esto permite las falacias o improcedencias de equívocos (juegos del lenguaje). Definir o concebir o conceptuar o consistir o dar sentido, significado, ya es otro tema, para eso hace falta pensamiento (analítico, racional o crítico¹). Aprovecho, y perdón porque esto no tiene nada que ver con el tema que se ha presentado en el programa, para decir que pensamiento crítico (no es un pensamiento insultante, menospreciativo, que es una confusión muy dada), el pensamiento crítico es un pensamiento analizador, razonador. Porque criticar es analizar, razonar sobre un relato (argumento, idea, pensamiento, experiencia, ficción, especulación, teoría, referencias, comparativas, diferencias (diferenciar); las críticas no son posturas reprobatorias o aprobatorias, eso son conclusiones que salen después del análisis o razonamiento o proceder o crítica sobre un asunto y que nada tienen que ver con el análisis o razonamiento o crítica o proceder o argumentación sobre ese asunto. Lo digo porque mucha gente se piensa que tener pensamiento crítico es tener menosprecio, insultar, reprobar (o apreciar, engolar, aprobar), y no tiene nada que ver. Un pensamiento crítico es un pensamiento analizador, razonador, diferenciador, reflexivo, conceptual, procesador, relacionante (y que por lo tanto lo hace bien usando la lógica, la coherencia, consistencia, la racionalidad, el análisis, la relación, el proceder). E igual, perdón otra vez, aprovecho para repetir otro comentario: "Pero ¿pueden resolver la hipótesis de Riemann, resolver la compatibilidad entre Relatividad General y Cuántica o crear una nueva teoría física científica descriptiva y predictiva sobre la naturaleza mucho más adecuada que las nuestras, resolver el problema de la carencia de energía (y la entropía), resolver el problema de la carencia de materias primas, resolver el problema de mercado y el problema psicológico y sociológico que puede crear la misma IA con el sistema capitalista? Por otra parte: Está bien que la propia IA pueda usar sus propios datos, pero entonces habría que crear varias categorías (en un principio escribí tres, pero he pensado que serán necesarias más) o ramas dentro de la IA. La generada a partir de datos de Internet, la generada desde la suma de la anterior a sus propios datos artificiales, y la generada por la que pase por un criterio humano como filtro. Es más yo añadiría una cuarta, y es ponerle un filtro (que considero que por ahora tendrá que ser humano, criterio de filtro humano) que sería buscarle una naturalización de sus datos (comparación con la naturaleza, dentro de los límites del conocimiento científico, y otra que dentro de ella pudiera ir más allá para poder teorizar a partir de la base). Esto es igual a como dentro de la filosofía, se generan diferentes categorías: la filosofía natural o ciencia (con su metodología científica, en la que cabría la especulativa científica o teorías científicas), la ficticia, la especulativa ( con su especulativa natural, especulativa sobrenatural o metafísica). Habría que empezar a darle filosofía a la IA como metodología de categorización, y a partir de ahí, se le podría dejar a la IA poder derivar o procesar desde sus propios datos artificiales. Pero, como digo, al principio, habría que filtrarla con criterios humanos, y enseñarla a poder procesar, analizar (criticar) para que empezará a filtrar, categorizar, sus propios relatos, construcciones, creaciones desde ese punto filosófico que he descrito (o prescrito)."
Yo lo que veo mucho marketing, por ejemplo, que vende más una cafetera normal o una cafetera con IA, aunque esa cafetera de IA no tenga nada de IA. Pasa similar con modelos de "razonamiento", de razonamiento no tiene nada, pero estamos haciendo un mezcladillo de palabras para vender, no dentro de mucho vamos a tener un pupurri de productos como en un supermercado.
Al final del video dices q no sabes cuándo presentarán o3 y open ai dice oficialmente q la versión o3-mini estará a finales de Enero . Por tanto hacia Mayo-Junio podrían presentar o3 completo perfectamente .creo yo, Gracias por el video 🎉🎉
Es tan fácil como que para empezar la Ia sea capaz de demostrar la hipótesis de Riemann, resolver las ecuaciones de Navier-Stokes o la cura para el cáncer.
Conciencia, Inteligencia, Emociones, Espiritualidad y, creo que podremos hablar de "una" Super/Inteligencia y, no Artificial. Digo, sinceramente no sé👍
Con este crecimiento exponencial se está corriendo el riesgo de que se esté perdiendo el poder entender todo el proceso y su control si es que no está pasando ya. Llegará un momento en el que el propio ser humano estará a la merced de está superinteligencia y esto será un punto de inflexión. Habrá un antes y un después.
Que tan bueno tiene que ser para reconocer que ya es una agi? Creería que en su campo de acción es mejor que el humano promedio y compite con el más capaz
Solo para problemas cuantificos específicos, debido a que existen muy pocos algoritmos que aprovechen o sean compatibles con este procesador, aun tienen que crear algoritmos que sean compatibles con el procesador, aunque es la máquina más poderosa que el hombre jamas haya creado y no para ser de esta época
Hasta qué no avancemos tecnológicamente no llegaremos a una IA General. Todo lo demás, productos de marketing de OpenAI. Lo peor qué pudiese pasar es qué lleguemos a otro invierno de la IA, creo qué se están metiendo demasiados huevos en el mismo cesto habiendo más empresas qué están realizando grandes trabajos. Creo qué ahora lo qué toca es avanzar en los agentes IA e ir siguiendo un camino más paulatino. Saludos.
Asi si oli, un video mas extenso,no se si me equivoco o no pero creo que aqui pones mas de ti que con la ayuda de un chat de ia, se me hace mas natural.
Como programador junior tal vez, un senior usando IA es un como 20% mas rápido en programar, la IA ayuda mucho en la documentación del codigo. Programar no es solo escribir código, lleva mucho analisis de requerimientos, logica de negocio, lógica de programación y mucha paciencia para entender lo que quiere el cliente 😅
pues yo estoy aquí no porque me guste la IA, sino porque quiero conocer al enemigo, como dijo Ian Malcom los científicos están tan preocupados por saber si pueden hacerlo que no de detienen a pensar si deberían
Son cuestiones comerciales, con Google es suficiente para saber que es O2( empresa subsidiaria de Movistar) y entender ese "quilombo" pero vamos hacer una pregunta contestada en el primer minuto del vídeo 😂😂😂😂😂😂
Recuerdo que hace unos 8 años comentabas los distintos tipos de inteligencia artificial (ANI, AGI y ASI) y que en el tránsito de una AGI a una ASI era cuestión de horas o de días.
pruebas de capacidad academicistas: problemas de matemáticas, programación informática y resolución de rompecabezas bidimensionales. Un conjunto muy acotado de problemas de solución única. Pero, ¿cuando enfrentaran a estos ingenios en la valoración de datos antropológicos, situaciones sociales complejas, predicciones no bursátiles e interpretación literaria matizada en interacción real con el mundo y no meramente con la red simbólica?
En mi honesta y desinformada opinión. Aunque trabajo en desarrollo de videojuegos, y uso la tecnología todos los días. Desde un punto de vista filósofo y de principios, me queda la duda de que si la conciencia es primero que la palabra escrita y hablada, y la palabra describe el mundo, podamos generar conciencia en una máquina a partir de lo último sin tener lo primero.
Para cumplir con ese 87% el modelo escupió 111 millones de tokens en pensamiento... Una absoluta locura. Por otro lado, ya se habían desarrollado soluciones con ~40% de cumplimiento, este mismo año.
Es simplemente refrescante ver un canal donde se hable con coherencia, sin contenidos sensacionalistas. Por fin un canal sobre tecnología decente y serio. Buen trabajo! 👍
Estoy de acuerdo. Recomendaría leer 《El Mito de la Inteligencia Artificial》de Erik J. Larson. Trata justo las razones por las que la IA no puede pensar como nosotros los humanos, escrito en lenguaje fácil y fluido.
Excelente manera de explicar las cosas y lo que me gusta es no te andas con rollos, ni términos muy rimbombantes ni como la mayoría de gente que habla de IA que todo lo exageran para ganar vistas. ✌️
clasico comentarios mama huevos
Ciertamente los modelos aun no pueden mejorarse a si mismos pero estaria interesante ver si son capaces de ayudar a diseñar modelos mejores. Es decir, si le cuentas a un modelo que estas usando tensores para entrenar un LLM con esta arquitectura, tantas capas, tales funciones aqui y alla y le preguntas como mejorarlo, lo mismo nos da una respuesta que nos deja wow. Que a lo mejor la forma de llegar a una AGI pasa, primero, por herencia
Eso es exactamente la retroalimentación. ¿No te has dado cuenta que has dicho exactamente lo mismo? jajaja
El hito es crear un tipo de recompensa para que dicha IA encuentre una solución a una respuesta matemática que nunca ha visto. El problema es que según los científicos que saben del tema, es que si bien es bastante sencillo encontrar recompensas en entornos cerrados como los juegos de Ajedrez o el Go donde uno conoce las reglas del juego, es extremadamente difícil cuando se trata de matemáticas porque no hay una única regla que te diga cómo encontrar una solución a problemas matemáticos. Lo más cercano que han encontrado es que, si dejas que la IA piense por más tiempo, sí llega a resolver ciertos problemas matemáticos (Puedes ver en el minuto 4:28 que con esta técnica se resuelven el 25% de problemas matemáticos que la IA no conoce). Así que lo que se espera es que si escalan el poder a por ejemplo, x5 o x10, es probable que esa cifra de problemas resueltos aumente, al 30% o al 50%, no se sabe 😮😮
Me encanta cómo comunicas! Sin clickbait, claro, conciso y a la vez inspirador. Me encantan las metáforas; ayudan a entender de manera sencilla los conceptos. Te sigo hasta el final!!!
Me alegro de haber encontrado este canal :) Tiene pinta de ser lo que parece, un canal de referencia de lo que cabe esperar de los avances en IA, y otros temas relacionados sobre todo con la tecnología, además con un talento especial a la hora de explicar de manera inteligente los temas
verdad que sí!!! está súper bien estructurado, me recuerda a un profesor de la uni 💯
@@Gzepol90TotalMente de acuerdo🙂👍
El o3 mini se supone que ya va a ser lanzado en enero, y la version completa poco después. No es algo para un futuro lejano.
Lo que no se sabe es cuándo llegará el GPT 5.
Se aprecia mucho la duración del video y que sea un tema tan top 🎉
Muy bien explicado, para la complejidad del tema (a veces rozando lo filosófico) y lo mejor, muy ponderado para lo que se ve por ahí.
Excelente video Oliver... solamente no olvidar dos cosas... 1) que cuando el marketing y la tecnología se juntan suele ser perversos... 2) que no hay peor error la momento resolver un problema que tener respuestas correctas para preguntas incorrectas... y de pronto regresar a lo simple a veces nos ayuda [INFINITO: que no tiene fin]
las maravillas tecnologicas que puedo vivir hoy en dia me vuelan la cabeza, y tus videos me hacen sentir aun mas privilegiado, saludos de Colombia.
Mirate un atardecer o un niño naciendo si queres ver algo realmente maravilloso
@@danteskywatcher4750Debes ser el alma de la fiestas.
@@danteskywatcher4750si realmente hubieras presenciado un nacimiento, sabrías que es la cosa más asquerosa y menos maravillosa que hay. Y los atardeceres, sí, muy lindos; tengo uno como fondo d pantalla; el tema es que ambas cosas son obra de la naturaleza, y acá la idea es ver hasta dónde puede llegar el Hombre
Vaya que fácil lo explicas, me ha encantado. Gracias Oli
MOVR This coin got too much potential, the market is low, low supply and its was on 180$ in the pre bullrun Alt season is going to start soon, shall I buy Movr or nit ???
Nadie lo explica tan bien cómo tú. Mi hermano bufalo te manda recuerdos.
Excelente óptica de valorar el punto donde nos encontramos con relación a la AGI. Estoy en la misma línea de entendimiento! Un abrazo Oliver.
Maravilloso como siempre. La verdad es que me repito mucho
👍Que buen canal !!!!!
Oliver, yo he leído muchas definiciones de AGI que no implicaban que se pudiera mejorar así mismo, de hecho en los 5 puntos de AGI que plantea OpenAI ¿Eso no estaba implícito no? Para mi una AGI "cómo herramienta" es una IA que pueda realizar todas las tareas que puede ejecutar un humano mejor que la media de los mismos. No osbtante, si que estoy de acuerdo contigo en que O3 probablemente no sea ni eso, para mí es solo intentar llegar a algún acuerdo con dicho Benchmark para poder romper su acuerdo con Mocosoft.
Efectivamente. Fue una IA diseñada específicamente para romper el ARC-AGI y romper su acuerdo con microsoft. Aunque algunos dicen que nadie tiene acceso a los datos de entrenamiento de ARC... Estoy bastante seguro de que se la han colado a Chollet y se ha entrenado con ellas. No es normal que falle estrepitosamente en cosas que a un niño de 5 años le tomarían segundos y, en cambio, supera a un adulto en tareas de razonamiento. No hay por donde cogerlo. Hay gato encerrado SEGURO. Después de SORA, he perdido completamente la confianza en "Open"AI.
Oliver se contradice al decir que no esta claro aun la definicion de AGI pero al mismo tiempo critica a OpenAI por su definicion de AGI y empieza a dar su PROPIA definicion de lo deberia ser la AGI.Es un sin sentido porque talvez la definicion de OpenAI es la correcta.
Y cómo puede hacer todas las tareas si no se mejora a sí mismo? O sea, aprender.
@@HectorSs-qs4wu AGI es toda aquella IA que es capaz de realizar CUALQUIER tarea que puede realizar un adulto promedio, incluidas las tareas físicas. Así que, no. No tenemos AGI. Mover los postes de la portería de un lado a otro no cambia nada. AGI es eso y nada más. Luego podemos hablar de ASI.
@@changoviejo9575 Me refiero a tareas en la media humana y me refiero cómo herramienta, si te refieres a una tarea nueva se le podría enseñar o incluso como dices que pudiera aprenderla, pero no es lo mismo que pueda aprender una tarea nueva en especifico con datos que se le puedan dar a que se mejore así mismo porque entonces en un corto espacio de tiempo puede que tuvieras una ASI, así que si pudiera mejorarse asi mismo a ese nivel ya esta casi se podría considerar una ASI directamente.
OpenAI lo que quiere es conseguir es una AGI cómo herramienta, no han prometido ni proactividad con auto-mejora ni consciencia. Y tendríamos que probar o3 para saber si al menos han conseguido eso. Una herramienta que sirva para todo haciéndolo todo mejor que el promedio de los humanos.
La AGI es la ia que crecera aceleradamente y ya no nos necesitara, pero podra darnos conocimiento nuevo sorprendente, incluso conosimiento que no podremos comprender, entonces creara algo que nos ayude a comprender.
Muy buen video, pero en el test ARC-AGI otros desarrolladores con mucho menos presupuesto y con modelos del lenguaje mucho mas limitados, consiguen un 53.5% no un 17%. Lo de llegar al 87% sin respetar las normas de gasto permitido (
Argentina fabrica mini reactors nucleares para esos data centers
Oli , como siempre espectacular
te mereces el like. Lo que ocurre es que te ha faltado lo que le falta decir a todos los que tratan el tema:
Lo que el público general conocemos es el carozo de la aceituna del vermut de la gran cena que manejan los especialistas.
La fecha en la que llegamos a las AGI o las ASI puede que se demore o puede que hoy se esté alcanzando, o puede que ya haga mucho rato que se alcanzó. Ilusiones nos hacemos que conocemos lo que hay en este tema en realidad.
La premisa en estos adelantos y en otros como la biogenética, computación cuática, armas destructivas, rejuvenecimiento, criptografía, etc es gastar 1 dólar en investigación y 10 en guardar el secreto.
Ya somos simples gusanos para los que manejan estas cosas.
El tema es que seguramente esten usando estos modelos para mejorarlos a si mismos, en el sentido de que aprovechar la cantidad de computo que tienen para formularles preguntas que les permitan mejorar a los mismos modelos y obtener ideas u respuestas de eso, en ese sentido si se esta mejorando a si misma la ia y va a seguir asi
De una AGI todavía están lejos, pero no a décadas, lo más probable es que ya tengamos una AGI a finales del 2025.
Es bastante probable que no se tenga una AGI completamente funcional hasta 2030. Otra cosa son "destellos" de AGI. A finales de 2025 no tendremos una AGI. Estoy seguro.
Pienso lo mismo
En la presentación y post de X dijeron que para mediados/finales de enero entregan el o3 mini y poco después el modelo grande
Gracias por la información
Min 9:03
Un conjunto infinito es aquel para el cual se puede definir o existe una biyeccion con un subconjunto de el mismo
Que locura darse cuenta de que no son tan versátiles como parecen... Gracias por el contenido!!
Tienen que Poder Mejorarse a Sí Mismos tanto a nivel de Código como a nivel FÍSICO y Estructural (chips, transistores, sensores, motores)
No estamos en la AGI, por poner un ejemplo, por más problemas de matemáticas que resuelvan bien, a día de hot no son capaces de resolver algo que aún un humano no ha resuelto (los famosos problemas del milenio como el recientemente solucionado de la conjetura de Pointcaré). Al igual que de momento, pueden pintar cuadros nuevos, pero nunca inventar un nuevo estilo).
Joder tío sencillamente brutal😮😮😮 se ve que eres catedrático. No me gusta comprar, pero has explicado lo inexplicable con una fluidez como muuuuy pocos. Thanx Bro 👌🏾. Subscrito. Period!!!👊🏾
Muy buen video! 😊❤
excelente explicador!!!
El modelo fue fine-tunneado para los benchmarks que mostraron, y el costo de ejecutar solo el test ARC AGI rondó el millón de dólares en cómputo... Desde mi punto de vista no es muy viable y ni siquiera es justo llamar a O3 como AGI.
Fua! Incluso con la disponibilidad de la AGI mañana mismo, el costo computacional y energético asociado la convierta en una Mano de obra super premium.
Inicialmente, la AGI se utilizará probablemente en aplicaciones de alto valor estratégico o económico, donde los beneficios justifiquen la inversión, como la investigación científica, el desarrollo de nuevos fármacos o la optimización de procesos industriales complejos. De ser asi no va a dar abasto la cantidad de trabajos que va a crear jaj (Los robot pasaran por el mismo proceso, mano de obra premium)
Está muy claro los test que están usando no son aptos para evaluar una AGI, los test para evaluar humanos no son representativos para evaluar modelos del lenguaje. Que los pongan a resolver la conjetura de Riemann si ya son tan inteligentes.
El expert en AI Que ve videos de RUclips ha hablado JA JA JA
Tienes un nuevo fan
Si el título de una noticia va entre signos de pregunta la respuesta casi siempre es no
Lo raro es que ni el o3 puede corregir los nombres tan Malos que tiene los modelos... Cuando salió pensé que era una versión anterior al o4 luego recorde que es 4o
Tal cual, y de hecho le tocaba o2.
@@alex1930fno le pusieron ese nombre por derechos de autor de productos de otra empresa
@@juanpablogarcia6293 ya ya
Buen bait bro
Se entiende perfectamente we
Buen vídeo 👍
Gran vídeo
En lo personal pienso que si es capaz de autoprogramarse y desarrollarse estaríamos hablando de ASI, pienso que para AGI con ser capaz de pensar a nivel humano es suficiente. O3 es un razonador y se comporta como un razonador, muy bueno, pero está limitado a conversación y razonador aunque seguramente pueda ser programado para ser agente. Ciñiendonos a la definición de AGI de open AI le faltaría ser innovador y se capaz de gestionar una organización. Desde mi punto de vista si es capaz de hacer esto último ya se podría catalogar como AGI pues es capaz de hacer cosas a nivel general, como un humano. Pero vamos, opinión personal.
El paso a AGI será evidente, puede ni sepamos donde comenzó cuando lo haga, sería conveniente tenga un botón de apagado.
Un buen símil a lo que comentas sería la diferencia entre el ahorro y la inversión que aprovecha el interés compuesto. Ahora estaríamos ahorrando y teniendo cada vez más dinero, pero las AGI comenzarían a invertir ese dinero y a hacerlo crecer exponencialmente.
Muy buen vídeo y muy bien explicado, pero hay una cosa en que no entiendo del todo: hablas de que el modelo debe retroalimentarse, y en eso estoy de acuerdo. Pero dices que para retroalimentarse debe ser capaz de cambiar su estructura en tiempo real. Adaptar sus pesos vale, pero en cambiar la arquitectura... ahí no estoy de acuerdo.
Considero que una de las formas de retroalimentación posible es que el modelo guíe a los humanos (o que los humanos guíen al modelo) en la optimización y desarollo del nuevo código y los nuevos modelos. Estoy bastante seguro de que OpenAI está invirtiendo bastante recursos en adaptar modelos para el desarollo de forma interna. Modelos ayudando a humanos, a construir modelos más rápidos que ayuden a los humanos a contruir modelos más potentes que ayuden a humanos....¿No consideras esto una forma de retroalimentación exponencial?
Cuando sea realmente AGI será cuando sea demasiado evidente, nadie tendrá dudas razonables
Great 👍🏼
Veremos
Muy de acuerdo, veo a todo el mundo diciendo o3, AGI alcanzada y no. Nos quedan muchos años para la AGI. Pero decir que se ha alcanzado la AGI da más visitas y por eso todo el mundo está haciendo un vídeo de eso.
Es impresionante lo que están logrando, pero aún me pregunto: ¿es realmente AGI o solo una mejora impresionante de ANI? 🤔
Y haz visto sobre las LNN?
14:16 y dudo que las empresas quieran que su modelo se auto mejore sin limitaciones o restricciones
Es muy fácil de hacer eso, bueno en teoría. Porque no se logró hacer que se pueda retroalimentar aún? Pero desde pequeño me imaginé una forma de hacer eso, aplicado a la biología pero se podría aplicar a la programación.
Sin llegar a la AGI, con los Agentes Inteligentes que será el 2025 estimo que la AGI estará lista en unos 3 años.
9:23 definir el infinito no es tan complicado.
1) Definición de andar por casa: es una cantidad tan grande que si se le añade una unidad más, permanece igual.
2) Definición matemática: es un cardinal igual o superior al del conjunto de números naturales.
gracias
Para crear codigo html y javascrip que porcentaje de codigo correcto puede crear?
Depende de la complejidad de lo que le pidas puede ser desde 100% al 0%
Para mí SÍ es una AGI:
Pero hay que entender que antes de ser una conpañia comercial, OpenAI es un laboratorio. Cuando Ilya se fue buscando la súper inteligencia OpenAI ya tenía el modelo o3 el cual ya se estaba considerando una AGI simplemente porque en propósitos generales es mejor al humano promedio, punto, no hay que darle más vueltas, el ARK AGI está precisamente diseñado para evaluar eso, no es nada complicado para los humanos pero las IAs eran incapaces de superarlo.
Para mí sí es capaz de auto programarse y el contexto infinito es algo que también ya se logró pero Ojo, a parte es un producto comercial (o1 pro) y a parte un producto de laboratorio (o3). A parte es el SORA de Febrero (laboratorio) y a parte la mierda que nos dieron (comercial)
Yo tengo dudas, ya que el problema es que cuando trabajas con datos sintéticos, el modelo se va degradando con el tiempo: Es como si descargas una imagen .PNG y está la vuelves a subir y la vuelves a descargar, repites el proceso x100 o x100,000. Verás que en un punto los pixeles se empiezan a deformar y te encontrarás con una imagen de peor calidad que la imagen original. Yo creo que Sam e Ilya son muy conscientes de este problema y por eso no pueden decir "entrenemos una nueva IA, ChatGPT10, únicamente con datos sintéticos, 100% auto programable". De hecho, hay rumores de que Grok 3 y Claude 3.5 Opus se entrenaron de esta manera (con muchos datos sintéticos) y empezaron a encontrar problemas de rendimiento, por eso no sacaron estos modelos 😦😦
TOTALMENTE DE ACUERDO. Soy profesional del campo y coincido punto por punto con tu exposición. Si acaso discrepo con que estas LLM sean ANIs, para mi son ASI (ya que no son sistemas expertos, es decir muestran capacidades para las cuales no han sido entrenados, traducir no es una capacidad para la que la LLM se haya preparado, más bien es una capacidad espontanea que surge de la "comprensión" del lenguaje, sin entrar a valorar lo que significa o puede entenderse por eso).
Solo añadir una cosa. Creo que habría que hacer una reflexión sobre los benchmarks. Tengo las dudas de si parte de los entrenamientos de estos modelos se basan o usan respuestas validadas o conocidas de los propios benchmark. No sé si se está haciendo pero no me extrañaría. Si es así, están haciendo trampa. Hay que recordar que Openai NECESITA inversores urgentemente y que ahora hay mucha mucha competencia. Habría que recordar el caso de SORA.
Sin LLA por NPL y NSP. Entonces AGRP en ITL por NSP2. Teniendo AGP con LMI y RTA con URM 4 en ICLM 7
Humano: Cual sera la tercer palabra de tu respuesta ?
ChatGPT: me han roto
Magnífico, me suscribo.
Pero nombrar no es definir, nombrar es fácil, de hecho como has dicho a veces se nombran vacíos de concepto, porque nombrar es fácil, y esto permite las falacias o improcedencias de equívocos (juegos del lenguaje).
Definir o concebir o conceptuar o consistir o dar sentido, significado, ya es otro tema, para eso hace falta pensamiento (analítico, racional o crítico¹).
Aprovecho, y perdón porque esto no tiene nada que ver con el tema que se ha presentado en el programa, para decir que pensamiento crítico (no es un pensamiento insultante, menospreciativo, que es una confusión muy dada), el pensamiento crítico es un pensamiento analizador, razonador. Porque criticar es analizar, razonar sobre un relato (argumento, idea, pensamiento, experiencia, ficción, especulación, teoría, referencias, comparativas, diferencias (diferenciar); las críticas no son posturas reprobatorias o aprobatorias, eso son conclusiones que salen después del análisis o razonamiento o proceder o crítica sobre un asunto y que nada tienen que ver con el análisis o razonamiento o crítica o proceder o argumentación sobre ese asunto.
Lo digo porque mucha gente se piensa que tener pensamiento crítico es tener menosprecio, insultar, reprobar (o apreciar, engolar, aprobar), y no tiene nada que ver. Un pensamiento crítico es un pensamiento analizador, razonador, diferenciador, reflexivo, conceptual, procesador, relacionante (y que por lo tanto lo hace bien usando la lógica, la coherencia, consistencia, la racionalidad, el análisis, la relación, el proceder).
E igual, perdón otra vez, aprovecho para repetir otro comentario:
"Pero ¿pueden resolver la hipótesis de Riemann, resolver la compatibilidad entre Relatividad General y Cuántica o crear una nueva teoría física científica descriptiva y predictiva sobre la naturaleza mucho más adecuada que las nuestras, resolver el problema de la carencia de energía (y la entropía), resolver el problema de la carencia de materias primas, resolver el problema de mercado y el problema psicológico y sociológico que puede crear la misma IA con el sistema capitalista?
Por otra parte:
Está bien que la propia IA pueda usar sus propios datos, pero entonces habría que crear varias categorías (en un principio escribí tres, pero he pensado que serán necesarias más) o ramas dentro de la IA. La generada a partir de datos de Internet, la generada desde la suma de la anterior a sus propios datos artificiales, y la generada por la que pase por un criterio humano como filtro.
Es más yo añadiría una cuarta, y es ponerle un filtro (que considero que por ahora tendrá que ser humano, criterio de filtro humano) que sería buscarle una naturalización de sus datos (comparación con la naturaleza, dentro de los límites del conocimiento científico, y otra que dentro de ella pudiera ir más allá para poder teorizar a partir de la base).
Esto es igual a como dentro de la filosofía, se generan diferentes categorías: la filosofía natural o ciencia (con su metodología científica, en la que cabría la especulativa científica o teorías científicas), la ficticia, la especulativa ( con su especulativa natural, especulativa sobrenatural o metafísica).
Habría que empezar a darle filosofía a la IA como metodología de categorización, y a partir de ahí, se le podría dejar a la IA poder derivar o procesar desde sus propios datos artificiales. Pero, como digo, al principio, habría que filtrarla con criterios humanos, y enseñarla a poder procesar, analizar (criticar) para que empezará a filtrar, categorizar, sus propios relatos, construcciones, creaciones desde ese punto filosófico que he descrito (o prescrito)."
Gracias ON
Esos antiguos videos de ANI, AGI y ASI. Se echan de menos Oli. Solo los old schools entenderemos esta referencia.
Yo conocí el concepto pero no soy programador
Have you applied for the test qualification successfully?
🤘🏻
Yo lo que veo mucho marketing, por ejemplo, que vende más una cafetera normal o una cafetera con IA, aunque esa cafetera de IA no tenga nada de IA.
Pasa similar con modelos de "razonamiento", de razonamiento no tiene nada, pero estamos haciendo un mezcladillo de palabras para vender, no dentro de mucho vamos a tener un pupurri de productos como en un supermercado.
Ehhhh alguien mas aparte de mi cree que este tipo es el cratos de la IA?
Al final del video dices q no sabes cuándo presentarán o3 y open ai dice oficialmente q la versión o3-mini estará a finales de Enero . Por tanto hacia Mayo-Junio podrían presentar o3 completo perfectamente .creo yo, Gracias por el video 🎉🎉
Es tan fácil como que para empezar la Ia sea capaz de demostrar la hipótesis de Riemann, resolver las ecuaciones de Navier-Stokes o la cura para el cáncer.
Conciencia, Inteligencia, Emociones, Espiritualidad y, creo que podremos hablar de "una" Super/Inteligencia y, no Artificial. Digo, sinceramente no sé👍
Con este crecimiento exponencial se está corriendo el riesgo de que se esté perdiendo el poder entender todo el proceso y su control si es que no está pasando ya. Llegará un momento en el que el propio ser humano estará a la merced de está superinteligencia y esto será un punto de inflexión. Habrá un antes y un después.
Ya estamos a merced de gentuza como bill gates, soros o schwabs
Ya esta pasando xd
No entiendas todo.. úsalo a tu favor.
Tirada de cable y fuera
Cuando salga O4.... ¿es O4 una AGI?.... cuando salga O5... ¿es.... una agi?.... menudo calvario nos espera en la época de las promesas
Que tan bueno tiene que ser para reconocer que ya es una agi?
Creería que en su campo de acción es mejor que el humano promedio y compite con el más capaz
Y de wilow que se sabe ya, ? Es funcional?
Solo para problemas cuantificos específicos, debido a que existen muy pocos algoritmos que aprovechen o sean compatibles con este procesador, aun tienen que crear algoritmos que sean compatibles con el procesador, aunque es la máquina más poderosa que el hombre jamas haya creado y no para ser de esta época
Hasta qué no avancemos tecnológicamente no llegaremos a una IA General. Todo lo demás, productos de marketing de OpenAI. Lo peor qué pudiese pasar es qué lleguemos a otro invierno de la IA, creo qué se están metiendo demasiados huevos en el mismo cesto habiendo más empresas qué están realizando grandes trabajos. Creo qué ahora lo qué toca es avanzar en los agentes IA e ir siguiendo un camino más paulatino. Saludos.
Como va la tecnologia de lo que vemos y no nos muestran , yo creo que una AGI se alcanzaria en esta década...
Yo soy muy optimista con la IA y ni de coña pienso que ya se haya alcanzado una AGI.
Pero ya no falta mucho :v
Asi si oli, un video mas extenso,no se si me equivoco o no pero creo que aqui pones mas de ti que con la ayuda de un chat de ia, se me hace mas natural.
Que todos lo saben entoces esmejo ber y cayar🙏🏻🙏🏻🌌🌌✨️✨️🌎
Como programador junior tal vez, un senior usando IA es un como 20% mas rápido en programar, la IA ayuda mucho en la documentación del codigo. Programar no es solo escribir código, lleva mucho analisis de requerimientos, logica de negocio, lógica de programación y mucha paciencia para entender lo que quiere el cliente 😅
pues yo estoy aquí no porque me guste la IA, sino porque quiero conocer al enemigo, como dijo Ian Malcom los científicos están tan preocupados por saber si pueden hacerlo que no de detienen a pensar si deberían
Viva el transhumanismo 🗣🗣🔥🔥
por que pasan del GPT 4o ao1 y luego o3? que quilombo se están montando con los nombres y ¿Qué necesidad hay para ello?
Son cuestiones comerciales, con Google es suficiente para saber que es O2( empresa subsidiaria de Movistar) y entender ese "quilombo" pero vamos hacer una pregunta contestada en el primer minuto del vídeo 😂😂😂😂😂😂
Singularidad.
Hombre Oliver, te perdí la pista creo por 2018
Recuerdo que hace unos 8 años comentabas los distintos tipos de inteligencia artificial (ANI, AGI y ASI) y que en el tránsito de una AGI a una ASI era cuestión de horas o de días.
pruebas de capacidad academicistas: problemas de matemáticas, programación informática y resolución de rompecabezas bidimensionales. Un conjunto muy acotado de problemas de solución única. Pero, ¿cuando enfrentaran a estos ingenios en la valoración de datos antropológicos, situaciones sociales complejas, predicciones no bursátiles e interpretación literaria matizada en interacción real con el mundo y no meramente con la red simbólica?
AGI= SKYNET
alomejor en 10 años ya tenemos una AGI a no ser que aiga un tope una barrera en el.hardware que es probable
Gracias Oli, creo que tenemos que pagar mucho por la LUZ😂
Y nosotros cerrando centrales nucleares...
La AGI nunca va a llegar porque como nuestras exigencias no tienen límites siempre todo nos parecerá poco
De primeras, el propio concepto "Inteligencia Artificial" es un tanto presuntuoso.
🇸🇻👋🏻
En mi honesta y desinformada opinión. Aunque trabajo en desarrollo de videojuegos, y uso la tecnología todos los días. Desde un punto de vista filósofo y de principios, me queda la duda de que si la conciencia es primero que la palabra escrita y hablada, y la palabra describe el mundo, podamos generar conciencia en una máquina a partir de lo último sin tener lo primero.
Jarvis?
an creado un chip llamado wilo tiene algo que ver con todo esto??
Les dice que chat gpt era histori
Quiero alertar que es te sr. pelón es Tuleño, si así es, es de Tula pero este sr. pelón se hace pasar por Tuano y allí es donde radica el peligro.
Loquisimo como la ia esta avanzado tan rapido
Yo llorando con 1500 en codeforces lol .