Tremendo 🤯 es la innovación del año sin lugar a dudas esto eclipsa todo lo que otras opciones llevan trabajo quizás esto es lo que vió Salt Alman el año pasado y esto solo sea el inicio de lo que llaman inteligencia artificial general
Es que es una brutalidad. Suelo ser bastante comedido explicando las cosas, pero esto es... superior. Tu lo has dicho, y creo que se nota, emociona ver como aparecen cosas como esta.
Tengo 41 años y a mi edad nunca he experimentado un salto tecnológico tan bestia. Equiparable al salto de las 2D a las 3D en videojuegos cuando salieron Zelda OOT o SM.64. Increíble.
Cuando lo ví me acordé de tu previsión sobre los avances de vídeo para este año, pero creo que esto no nos lo esperabamos nadie. Simplemente IN-CRE-I-BLE!!!
Es una brutalidad, de verdad, es de las pocas veces que realmente me ha explotado el cerebro viendo un avance, pero lo increíble es ver que esto puede ir mucho más allá del vídeo.
ES un salto, pero es de doble filo, Open AI tiene esto para el equipo rojo, pero pasará igual que con la api de chat gpt, cuando compras la tecnologia, se presta para un peligro eminente, empezando por ejemplo con la generación de pornografia.
A veces nos da por ponernos tremendos cuando asistimos a noticias tan impactantes, pero algo dentro de mí se revuelve desde hace tiempo y me suscita una idea sencilla, creo que no deberíamos perder de vista el mundo real y tener siempre un ojo en él, en cuidarlo y mejorarlo, y no cegarnos en demasía ante los neones y las maravillas de la tecnología.
@@undiaencasa yo lo digo sin juzgar a nadie, sólo me preocupa que desequilibremos demasiado la balanza de lo que considero fundamental, más allá de importante.
Ha sido tal el impacto que hasta en las noticias de antena3 de hoy han mostrado esta noticia . Creo que el nivel de IA detras de esto me hace pensar que la AGi no está tan lejos... y quizás lo metaversos que veiamos en las peliculas futuristas de antaño sean una realidad mas pronto que tarde. Un saludo crack.
Esta es la sensación que he tenido yo. Porque crear vídeos tan complejos implica como mínimo, emular la realidad. Esto avanza ya no a pasos agigantados, sino a saltos cuánticos. Es alucinante.
creo que las probabilidades aumentaron exponencialmente en estas últimas 48 horas. Si nosotros, simples primates ya logramos crear una copia irreal de nuestra realidad, nada impide que otros humanos o seres, con el mismo tiempo y recursos también lo hayan logrado y nos hayan metido dentro de su propio modelo Sora.
@@XavierMitjana sí, de hecho nuestros mayores decían que la vida ws sueño o un gran teatro o el mundo de Maya de los Hindúes , hoy la metàfora puede ser también la de un mundo virtual, una especie de simulación ...gracias por tu trabajo, ayuda mucho a estar al día de las innovaciones etc.
"Le dibujo un paisaje y me lo hace vivir". (Tema Musical de Merengue del amado Cantante Dominicano de nombre Sergio Vargas) jajajaja. GOD bles Sergio!! ++++
Es sencillamente increíble, sinceramente yo sabía que la IA nos iba a sorprender más este año y creo que esto aquí no va a parar, tú habías dicho en tus predicciones para el 2024 que la IA no iba a avanzar tanto como el año pasado, pero ya ves, creo que a todos nos emociona. Pienso en los pequeños negocios que no pueden acceder a grandes producciones para sus campañas publicitarias, ahora lo podrán hacer, y a mi que me gusta contar la vida de personajes históricos, pues ahora lo podré hacer más real. saludos desde México.
No exactamente, yo dije que los LLMs no iban a avanzar tanto como lo hicieron en 2023. Más que nada porque en 2023 vimos el resultado de una evolución real de unos 3 años. De GPT3 (2020) a GPT4 (2023) y porque en ese tiempo desde que había salido GPT4 no parecía haber signos de otra mejora sustancial. Y de momento, a nivel de LLMs todo sigue tranquilo. Se mejora en lo esperable, rendimiento, ventanas de contexto, eficiencia... pero no ha salido de momento nada comparable a lo que se vio el año pasado. Pero visto lo que es Sora y como se parece a un LLM, habrá que estar muy atento. En cambio, en vídeo sí que me animé a decir que este iba a ser su año. Pero como digo, esto colma todas mis expectativas.
Me siento como los músicos que tocaban mientras se hundía el Titanic. Como director de videos de animación y 3D para publicidad, veo como la IA va a acabar con el trabajo que yo hago, así como el de mis compañeros, sustituidos por unos prompts para beneficio de unos pocos en control de esta tecnología. Los que tienen van a tener más que nunca y los que tienen poco no les quedará nada. Yo soñaba con que en el futuro las máquinas harían aquellas tareas mecánicas y aburridas que los humanos no quieren hacer, dedicados a labores creativas y más gratificantes. Y sin embargo este es un futuro en el que las máquinas hacen lo que nosotros queremos hacer y nosotros quedamos obsoletos con la única esperanza de hacer lo que, de momento, ellas no pueden, como servir un café, pintar una pared o construir un muro. Siento no compartir el entusiasmo.
Por ahora no lo veo tan así, como programador cuando salieron los primeros modelos de lenguajes decían lo mismo, pero con el paso del tiempo solo nos dimos cuenta que es una herramienta más. Puede que un modelo te de el código pero es indispensable un pensamiento sistémico para decirle que quieres que haga. tener el control detallado de cada escena requiere conocimientos técnicos para plasmar lo que realmente quieres. Con el pasar de los años (porque faltan varios años) para ser realmente funcional lo que irá cambiando es que ya no necesitarán cientos de personas sino menos, además de tiempos más cortos. Al final los que se montan a la ola y la dominan son los que prevalecen.
Yo no lo veo así Manuel, de hecho, mi sensación es que siguen eliminando las partes tediosas del proceso creativo, pero la intención sigue siendo humana.
@sbtiancz, yo no creo que estar delante de una pantalla poniendo “prompts” sea subirse a la ola, pero claro, te lo dice alguien que disfruta poniendo luces, trabajando la composición, pintando la textura… que es por lo que siento diferir de lo que comentas @XavierMitjana, porque para mí mi trabajo no es nada tedioso, como tampoco lo es colaborar con gente que modela, que hacen los efectos, que filma, etc. y que ya no serán necesarios. Y sí, te entiendo @angelrivera8764. Hace poco se reían mis compañeros de concept art, hasta que echaron a tres de los cinco en el equipo y los sustituyeron por suscripciones a Midjourney que ahora usan los que han quedado. Ya no es que vaya a pasar en el futuro, yo veo el efecto a día de hoy y es triste. Yo quiero un futuro en el que ganemos todos más y estemos haciendo todos cosas creativas. Y poner prompts, cambiarlos, desechar, seleccionar… no me es a lo que me refiero con creatividad.
>> Yo soy, era, técnico mecánico en robots industriales, tengo 75 vueltas al Sol y tuve que reciclarme en los ya 60, 70, 80 etc, pues mis principios fueron de mecánico ajustador en la rama del metal, empecé a los 12 años. Cuando los compañeros veían la que se le venía encima porque los Robots les iba a quitar el trabajo, nos hacían todo tipo de impedimentos, se reían y burlaban de nosotros, se fueron jubilando y el sector iba absorbiendo personal para atender y "alimentar" esos Robots, luego un sector se degradaba y otro florecía como Flor en Mayo...¿Se me entiende?...Así sigue la cosa, empezamos a desbancar profesiones peligrosa y tóxicas, en Fundición, en Pintado de carrocerías etc...y ahora hay una inmensidad de jóvenes colocados en esas materias que nosotros abrimos la brecha...Salud y salu2, la ciencia y tecnología no la para nadie...sólo si hay un desastre Universal, provocado o no por el Hombre o la Naturaleza...(Os saluda "El Abuelo Digital" que solo desea Paz y bienestar).-
Que bien. Es fantástico llegar a un punto en el que no sepas si lo que estás viendo es real o no. Maravilloso. Me parece que la gente no es consciente de a lo que vamos encaminados con este tipo de herramientas.
Xavi, habrá que esperar a que Sora este disponible al público general, ya que por lo que he visto, muchos de estos modelos de generación de texto o video tienden a mostrar presentaciones que varían de la realidad cuándo ya están disponibles. Esto lo he visto con modelos de generación de texto como Gemini o Copilot que en un video de presentación mostraban respuestas extraordinarias, pero luego cuándo tú mismo probabas ese prompt de ejemplo, los resultados que obtenías no tenían nada que ver y era una decepción. Lo mismo ocurrió con Pika. Habrá que probarlo como tal cuándo este disponible para ver que tanto se acerca a esta presentación. A veces lanzan estos videos solo para aumentar el hype y potencialmente generar ruido y llamar la atención de inversionistas.
la diferencia es que Sora ya lo pusieron a prueba ayer en tiempo real en twitter. y los resultados fueron igual de asombrosos que los de la presentación. Eso no se podría falsear.
Sam Altman ha compartido generaciones que le pedían usuarios de Twitter y el resultado es muy similar a esta selección de resultados en su web. No creo que en su caso nos estén inflando mucho las expectativas, porque además no había ninguna necesidad. Esto presentado en un par de meses hubiese sido igual de rompedor.
Mucho no tarda cuando ayer Sam Altman estaba en X colgando lo que la gente le pedía. Yo me he despertado hoy viendo el vídeo de la japonesa y se me ha helado la sangre. Y en el vídeo del palomo, si te fijas en la cresta hay unos pelitos de los que forman las plumas que están separados del resto, pues incluso después de sacar la cabeza del plano y darse la vuelta, siguen ahí. Un abrazo
Observé exactamente lo mismo que vos en ambas cosas. Sam accedía a los pedidos de los seguidores con resultados bastante rápidos y miré lo mismo en la cresta del pájaro azul. Pero fíjate en el vídeo de la japonesa que el pelo no es el mismo en el primer plano ni el suéter. Pero igualmente es increíble.
Es que seguro que el tiempo de inferencia es bajo, lo ponía como incógnita, pero que incluso en el peor de los casos, si fuese lento, pero ganásemos control, ya podrían construirse soluciones mucho mejores de lo que tenemos ahora.
La verdad esta muy interesante, gracias por toda esta información, me parece que en el minuto 3:30, aparece en el video el paisaje del Salar de Uyuni en Bolivia!!! 😊
Ver para creer que Mityana estaba flipando con esa noticia y la verdad es increíble me pone la piel de gallina con la capacidad que están mostrando los modelos.
Se me ocurre otra genial idea, que tal si generamos un modelo que aprenda a como obtener energía eléctrica a partir de los cuerpos de los seres humanos? 😃
También me recordó la ultima temporada de Black Mirror donde sale Salma , habrá que ver que tanto se puede hacer cuando este disponible, supongo que será de paga , gracias por responder saludos @@XavierMitjana
Veo venir una serie de tecnologías como la realidad virtual de alta nivel Absolutamente realista donde se podrá confundir la realidad con la virtualidad
La innovación a la que Xavier hace referencia es verdaderamente asombrosa, especialmente en lo que respecta a la generación de video por parte del modelo Sora. Además, se planea incorporar una capacidad de memoria a ChatGPT en un futuro cercano. Esto significará que los tokens actuales de Gemini 1.5 quedarán obsoletos. De hecho, OpenAI acaba de marcar un hito histórico con estos avances
Ni idea la verdad, ni tampoco bajo que condiciones. Supongo que dependerá mucho del coste computacional y el tiempo de inferencia necesario para crear los vídeos lo que hará que decidan incorporarlo a herramientas más comerciales (como ChatGPT) o a nuevas herramientas más específicas y presumiblemente más caras.
interesante Xavier y que pasaria si con machine learnig unimos este adelanto mas las vision pro de apple y el mundo virtual de meta podremos ya vivir en un mundo ideal paralelo en modo virtual
excelente informacion Xavier le auguro un futuro esplendido a esta tecnologia, mi duda es si ya existe algun programa que permita crear una novela, a partir de un guion o argumento, seria un boom en el arte literario, y si se puede usar esta tecnologia como crear un asistente virtual como siri, ineractuar con video generado por IA, como si fuera un holograma hiperealista 3d o algo parecido, de antemano gracias
Ni idea, lo presentaron ayer y muy poca gente tiene acceso. Pero entiendo que si lo presentaron pronto estará disponible de una manera u otra. Ojalá at través de ChatGPT.
las AI llego para quedarse y los que nos generamos render por años hoy estamos estupefactos... esto es lo mas increíble que he visto, un render que nosotros los arquitectos generamos para un cliente nos tomaba meses y miles de horas de trabajo, y ahora llega esto con una calidad tan asombrosa que afortunadamente me he jubilado porque a la velocidad que van las AI nos quedaremos sin trabajo todos los que generábamos imágenes de cualquier tipo... me encanta lo que va a lograr las AI.
Entonces los que hacen renders, sabran que su talento ya no es valido, ha sido remplazado, solo les queda pagar por estas herramientas para seguir haciendo lo que ya todos podran hacer.
Este es un tema que toca muy de cerca, y sí la sensación es que los despachos de arquitectura migraran esta parte inhouse. Aunque seguirá haciendo falta alguien con criterio y sensibilidad para presentar bien las imágenes.
Creo que es una visión irrespetuosa para tus compañeros arquitectos y personas que generan gráficos por computadora. El alegrarte de estar jubilado por qué así tú no tienes posibilidad de perder tu trabajo y que te encanta lo que se va a lograr, pues no se... Puede haber gente que se sienta molesta
Imagina en un futuro quiza con texto generar todo un mapa 3D, que de tal manera como en estos videos se ven muchos detalles pero la escena la determina la IA misma, entonces con el mapa o mundo 3D, uno mismo puede andar y realizar tomas y secuencias de lo que uno quiera, sin necesidad de andar modelandolo todo a mano. Ejemplo el de la chica caminando en la ciudad de noche, uno escribe el texto y te genera todo ese entorno en 3D, y ya queda de parte de uno realizar tomas de lachica de lejos o de cerca y ver detalles realistas cuando se acerca la camara a la chica etc. Bueno ya todo dependera de como se logre hacer funcionar eso. Seria increible que con tan solo escribir promts en ese mundo 3D, cambiar aspectos de ese mundo, tipo como la IA de photoshop que seleccionas un area y le dices a la IA que te coloque o quite X elemento en ese lugar.
No sé como evolucionara, pero parece que este modelo es especialmente bueno en combinar elementos en videos. Por lo que no es descartable que la tecnología pueda hacer esto algún día.
Hola, saludos desde Ecuador. Supongo que si tiene el potencial para crear vídeos en donde la física de trasfondo es la dinámica de fluidos, estaría en capacidad de resolver ejercicios de física referentes a ese tema?
en la IA sucede que hay una negociación de lo que es verosimil. si pides, por ejemplo, la chica famosa esa de rojo de Tokyo, sucede una especie de seducción psicológica de la máquina contra el humano que hace que llegues a creer que esa era exactamente la chica que querias ver pero hay un ajuste de patrones del humano impuestas por la máquina, luego puedes poner tu foto (suponiendo que tu eres la chica) y todavía terminarás más convencido de que eso era exactamente lo que querias pero continuará habiendo multitud de detalles no solicitados pero aceptados que hacen que esa realidad no sea la que tu habrias realizado si lo hubieras dibujado tu pixel a pixel. en ese sentido no mata nuestra creatividad pero en el 99% de los casos la absorbe y la ahoga. en realidad es una herramienta que por la misma puerta que te libera te encierra
Muy bien Xavier, debemos entender un poco que Openai, es el laboratorio mas grande del mundo y el mas avanzado por encima de Google, Amazon, Apple. Por eso estos desarrollos y los que vendran despues. La competencia trata de hacer lo mejor posible, pero tener este laboratorio y los años de entrenamiento, no se consiguen en un casa y un computador.
Pues justo hoy en LinkedIn he visto una publicación de Jim donde se veía la reconstrucción sonora. Creo que aún había bastante prompting manual, pero el resultado era sorprendente.
Lo que quiero es que se puedan hacer escenarios que tengan continuidad para contar una historia sin que cambien los personajes. Ahí se ve que solo genera escenas y si por ejemplo uno quiere otras perspectiva de la mismas escena no se podría. Yo pagaría mi suscripción así costara mucho si logran hacerla con las necesidades que tengo.
esta combinación queda perfecta: Apple visión pro(similar o mejoradas) + I.A(creación de un mundo) + dilatación del tiempo (una i.a en si que te haga un mundo virtual y que cada segundo en la vida real sea un año en este mundo virtual y que para nosotros solo pase 1 segundo físicamente) = vida eterna
imagina un mundo donde inmediatamente te ponen unas gafas de VR al nacer, con un modelo de ia creando en tiempo real un mundo como lo crea Sora. ¿serias capás de darte cuenta que tienes gafas de RV puestas? ¿serías capás de darte cuenta que estás en un mundo irreal?. ¿lo serías ahora mismo? Estos avances tecnológicos son perturbadores.
@@KARA-IA tal vez nada, si es otra persona la que te quiere dentro de esa simulación. tal vez tu y yo ya estamos dentro de esa simulación con las gafas atornilladas al cráneo desde nuestro nacimiento, y no pagamos ningún centavo.
@@sanD-xq8nb para conversación ya está chat gpt, acaso no has visto las demos de "replica city"?. Además wisper para escuchar y entender. Y todo el resto de sentidos se pueden simular directamente a tu cerebro vía neuralink.
Presentación de momento. Pero no debería tardar demasiado en estar disponible. Aunque podrían ser algunos meses, que es lo que tardo Microsoft en ofrecer Copilot.
La prioridad número uno de los españoles ahora es conseguir que Sora genere nuevos capítulos de los Simpsons con el estilo de los noventa. Que salga bien 🤞🏻
Hola Xavier, no creo que te equivocaste sobre el futuro de los avances de la IA es que no contaste con la variable más importante, las mismas IA se están reescribiendo más rápido y más efectivas.
Eventualmente se podra decirle a la IA que modifique algo del video en tiempo real. Un psiquiatra o psicólogo podria usarlo para un mejor analisis del paciente. Este podria decirle sobre sus sueños. Y entre ambos alterar el video para que sea exacto al sueño. Quimicos podrán usarlo para sus experimentos. Es increible
Sisi obvio....vivimos en un simulador podemos nos. comprenderlo e incorporarlo y parar el proceso para que la cúpula no se recaliente onda modo microondas es lo unico que tiene sentido y nuestra responsabilidad por aca en estos lares, usando ia en positivo; no solo mostrandonos la parte divertida y vanal del asunto seria una muy buena alternativa, ia hoy x hoy está entre nos los humanos....fue creada x nos!!!! Si es educativa re positiva mepa...la del mamut mr parecio genial x ej
Tampoco es eso, se seguirán necesitando profesionales, hacer una película es algo tremendamente complejo. Igual algún sector específico, como el video de stock puede verse directamente afectado, pero para el resto será una herramienta más.
@@XavierMitjana espero que tengas razón, pero esta sólo es la versión 1 de un modelo fundacional. No me parece descabellado imaginar que dentro de un par de iteraciones ya se podrán producir escenas tremendamente complejas de películas comerciales con una fracción infinitesimal del presupuesto, dejando por los suelos a sectores enteros de la industria cinematográfica.
@@stefanolacchin4963 claro que tiene razón pero por el momento, esto en 5 años joderá industrias completas jajaja xD ESTOS BUSCAN SER UN MONOPOLIO !, no habrá muchos puestos de trabajos, ni manera de " reinventarse" en estas industrias.
@@lucilapadial3284 no creo que esto se pueda convertir en un monopolio. Eso tiene sentido en una economía de mercado, y creo que a largo plazo el concepto de economia de mercado se quedará obsoleto. Esto sólo es el comienzo, el paradigma tendrá que cambiar. Cuando dije que han arrasado a una industria entera en una noche, quería decir que ya se ha visto que va a ser posible remplazar todo el reparto y el equipo entero de producción y postproducción. Que no se pueda hacer hoy es secundario, la vista al futuro ya es suficiente para que todo cambie ya.
Las demás plataforma ante semejante salto de tecnología irán por ella, como peligrosa porque no está en iguadad de desempeño, el libro , xxx .... la competencia está a otro nivel🙆🏽♀️💃🕺
CREO QUE ESTAMOS LLEVANDO A UN NIVEL DE QUE COSA TAN INCREIBLE ,VIDEOS QUE SE NOTA QUE SON MOVIMIENTOS DE UN MUÑECO CON MAS PERFECCION ,LA FORMA QUE SE MUEVE LA MUJER NO ES LA NORMAL DE UN SER HUMANO ,DEJEMOS DE CONSIDERAR TODO COMO BRUTAL E INCREIBLE ,BRUTAL E INCREIBLE LA FORMA COMO SE CREO EL SER HUMANO Y COMO FUNCIONAN SUS ORGANOS ,TODO ESTA INTELIGENCIA ES CREADA DE L MUNDO REAL , EL CUAL SI DEBERIA ASOMBRARNOS ,PERO EL HOMBRE SE LA PASA ES ENSALSANDO LO QUE SE INVENTA COMO UN REMEDO DE LA REALIDAD , SI FUERA NUEVO QUE SE INVENTEN ALGO QUE NO ESTE EN ESTE MUNDO , REPLICAR LO QUE CREO ALGUN SER SUPERIOR ES COPIA ,NO ES NADA NUEVO . ............................. EL HOMBRE ENSALSANDO AL HOMBRE .....
Como siempre esto abre para un negocio, el del consumir videos o peliculas creadas a partir de guionistas o escritores que siempre querían tener inversión, aunque Sora no es tan especifico como la mente humana. Ya me imagino personas leyendo libros o viendo películas por esta red.
>> Xavi, no quiero ser agorero, pero cuando Sora salga en Julio, se le habrán adelantado los "compis" un 100% en todo, como veremos, se van a poder hacer vídeos casi solo con el pensamiento, pero con imágenes tan reales como las de Hollywood, está al caer...Un saludo de "El Abuelo Digital". From Madrid Febrero 2024.-
Se acabo hasta la industria del cine no necesitas actores ni un equipo de grabación ni nada de nada solo un ordenador. Las productoras se van a ir a pique cuando un random pueda en segundos recrear la continuación de su película favorita desde su casa con un mejor resultado y cgi sin invertir nada de dinero. La gente dejará de ir al cine q ver películas porque podrá crear las suyas a su gusto, dejarán de pagar por plataformas de suscripción de streaming también. Usarán estos vídeos para manipular más la realidad de la que los medios ya lo llevan haciendo por décadas, se usará para manipular pruebas o culpar y acusar a gente inocente. Me gusta y me alegra pero por otro lado me da miedo. Si esto lo podemos hacer en un recién 2024, no me quiero ni imaginar lo que seremos capaces de hacer con ia en el 2050
ES por el modleo de negocio, OpenAI vende tecnologia, por ejemplo cuando creas gpts no puedes crear gpts de sexo explicito, si usas la api directamente es otra cosa, lo mismo con esto, entonces cuando compres la api podras genera lo que quieras.
¿Cuál es el significado del nombre Sora? #9 Sora. Se puede usar tanto para hombre como para mujer, pero en Japón es un nombre cien por ciento masculino por su significado. Quiere decir “hombre habilidoso
👉 Recibe toda la INFO de mi NUEVO CURSO: bit.ly/curso_ia_
Tanto a vos como a DotCSV los vi casi tartamudeando frente a esto y los entiendo. Esto es un salto que da vértigo.
Tremendo 🤯 es la innovación del año sin lugar a dudas esto eclipsa todo lo que otras opciones llevan trabajo quizás esto es lo que vió Salt Alman el año pasado y esto solo sea el inicio de lo que llaman inteligencia artificial general
Igual que yo, ayer noche casi me caigo del sofá viendo DotCSV. Igualmente sigo ojiplático con el amigo Xavier
Es que es una brutalidad. Suelo ser bastante comedido explicando las cosas, pero esto es... superior. Tu lo has dicho, y creo que se nota, emociona ver como aparecen cosas como esta.
Tengo 41 años y a mi edad nunca he experimentado un salto tecnológico tan bestia. Equiparable al salto de las 2D a las 3D en videojuegos cuando salieron Zelda OOT o SM.64. Increíble.
@@arka.6694 No. Esto da más miedo
Wonderful!! Podré contar History of my Life en este plano y Sora lo convertirá en Videos. ++++
Cuando lo ví me acordé de tu previsión sobre los avances de vídeo para este año, pero creo que esto no nos lo esperabamos nadie. Simplemente IN-CRE-I-BLE!!!
Es una brutalidad, de verdad, es de las pocas veces que realmente me ha explotado el cerebro viendo un avance, pero lo increíble es ver que esto puede ir mucho más allá del vídeo.
esto es un salto enorme dado que bien se esperaba en uno o dos años, es una total locura y con duraciones descomunales
ES un salto, pero es de doble filo, Open AI tiene esto para el equipo rojo, pero pasará igual que con la api de chat gpt, cuando compras la tecnologia, se presta para un peligro eminente, empezando por ejemplo con la generación de pornografia.
excelente explicación Xavier sobre la IA Sora saludos desde Quito Ecuador.
Leí un artículo el otro día sobre Sora y realmente no me lo creía. Nunca he visto un salto tecnológico tan bestial como este. Gracias Xavier.
Recien descubri tu canal por este video y me encanti. Suscrito!!
A veces nos da por ponernos tremendos cuando asistimos a noticias tan impactantes, pero algo dentro de mí se revuelve desde hace tiempo y me suscita una idea sencilla, creo que no deberíamos perder de vista el mundo real y tener siempre un ojo en él, en cuidarlo y mejorarlo, y no cegarnos en demasía ante los neones y las maravillas de la tecnología.
Habrá dos mundos paralelos.
Los que viven engañados y los que viven la realidad.
@@undiaencasa yo lo digo sin juzgar a nadie, sólo me preocupa que desequilibremos demasiado la balanza de lo que considero fundamental, más allá de importante.
@@undiaencasa va a ser difícil distinguir la realidad de la que no, porque ambos mundos van a coexistir de manera integrada.
Me llama la atención los prompt... son sencillos y mira lo que hacen. Interesante!
Ha sido tal el impacto que hasta en las noticias de antena3 de hoy han mostrado esta noticia . Creo que el nivel de IA detras de esto me hace pensar que la AGi no está tan lejos... y quizás lo metaversos que veiamos en las peliculas futuristas de antaño sean una realidad mas pronto que tarde. Un saludo crack.
Esta es la sensación que he tenido yo. Porque crear vídeos tan complejos implica como mínimo, emular la realidad. Esto avanza ya no a pasos agigantados, sino a saltos cuánticos. Es alucinante.
Para la próxima década veremos los nacimientos de los primeros metaversos.
Ojalá el hardware logré avances para poder experimentarlos.
cada vez está más claro que nuestro propio mundo, a su vez, es una simulación
creo que las probabilidades aumentaron exponencialmente en estas últimas 48 horas. Si nosotros, simples primates ya logramos crear una copia irreal de nuestra realidad, nada impide que otros humanos o seres, con el mismo tiempo y recursos también lo hayan logrado y nos hayan metido dentro de su propio modelo Sora.
Totalmente de acuerdo. Pero para mi una cosa no quita la otra.
@@XavierMitjana sí, de hecho nuestros mayores decían que la vida ws sueño o un gran teatro o el mundo de Maya de los Hindúes , hoy la metàfora puede ser también la de un mundo virtual, una especie de simulación ...gracias por tu trabajo, ayuda mucho a estar al día de las innovaciones etc.
@@XavierMitjana crees que vivimos en una simulación? Que vos y yo no somos reales?
Hace años que deseaba una Maquina así que me ayudara hacer Películas y Música. Thank's JEHOVAH my GOD por darme a Sora. ☆☆☆ ☆ ☆☆☆
"Le dibujo un paisaje y me lo hace vivir". (Tema Musical de Merengue del amado Cantante Dominicano de nombre Sergio Vargas) jajajaja. GOD bles Sergio!! ++++
Es sencillamente increíble, sinceramente yo sabía que la IA nos iba a sorprender más este año y creo que esto aquí no va a parar, tú habías dicho en tus predicciones para el 2024 que la IA no iba a avanzar tanto como el año pasado, pero ya ves, creo que a todos nos emociona. Pienso en los pequeños negocios que no pueden acceder a grandes producciones para sus campañas publicitarias, ahora lo podrán hacer, y a mi que me gusta contar la vida de personajes históricos, pues ahora lo podré hacer más real. saludos desde México.
No exactamente, yo dije que los LLMs no iban a avanzar tanto como lo hicieron en 2023. Más que nada porque en 2023 vimos el resultado de una evolución real de unos 3 años. De GPT3 (2020) a GPT4 (2023) y porque en ese tiempo desde que había salido GPT4 no parecía haber signos de otra mejora sustancial. Y de momento, a nivel de LLMs todo sigue tranquilo. Se mejora en lo esperable, rendimiento, ventanas de contexto, eficiencia... pero no ha salido de momento nada comparable a lo que se vio el año pasado. Pero visto lo que es Sora y como se parece a un LLM, habrá que estar muy atento.
En cambio, en vídeo sí que me animé a decir que este iba a ser su año. Pero como digo, esto colma todas mis expectativas.
Gracias por tu respuesta@@XavierMitjana
Cierto, literalmente ya no necesitarás tener una PC tan cara con esto, es buenísimo sinceramente.
Saludos y un abrazo para ti Javier.
gracias profe
Whow! qué sorprendente!!! Muchas gracias Xavier, creo que tendremos otro año sin precedentes... Saludos, desde Cordoba, Argentina
Me siento como los músicos que tocaban mientras se hundía el Titanic. Como director de videos de animación y 3D para publicidad, veo como la IA va a acabar con el trabajo que yo hago, así como el de mis compañeros, sustituidos por unos prompts para beneficio de unos pocos en control de esta tecnología. Los que tienen van a tener más que nunca y los que tienen poco no les quedará nada. Yo soñaba con que en el futuro las máquinas harían aquellas tareas mecánicas y aburridas que los humanos no quieren hacer, dedicados a labores creativas y más gratificantes. Y sin embargo este es un futuro en el que las máquinas hacen lo que nosotros queremos hacer y nosotros quedamos obsoletos con la única esperanza de hacer lo que, de momento, ellas no pueden, como servir un café, pintar una pared o construir un muro. Siento no compartir el entusiasmo.
Por ahora no lo veo tan así, como programador cuando salieron los primeros modelos de lenguajes decían lo mismo, pero con el paso del tiempo solo nos dimos cuenta que es una herramienta más.
Puede que un modelo te de el código pero es indispensable un pensamiento sistémico para decirle que quieres que haga. tener el control detallado de cada escena requiere conocimientos técnicos para plasmar lo que realmente quieres.
Con el pasar de los años (porque faltan varios años) para ser realmente funcional lo que irá cambiando es que ya no necesitarán cientos de personas sino menos, además de tiempos más cortos.
Al final los que se montan a la ola y la dominan son los que prevalecen.
Yo no lo veo así Manuel, de hecho, mi sensación es que siguen eliminando las partes tediosas del proceso creativo, pero la intención sigue siendo humana.
de aquí a 5 años no será una herramienta mas, y esto destruirá industrias completas, y todo se volverá un monopolio de estas empresas@@sbtiancz
@sbtiancz, yo no creo que estar delante de una pantalla poniendo “prompts” sea subirse a la ola, pero claro, te lo dice alguien que disfruta poniendo luces, trabajando la composición, pintando la textura… que es por lo que siento diferir de lo que comentas @XavierMitjana, porque para mí mi trabajo no es nada tedioso, como tampoco lo es colaborar con gente que modela, que hacen los efectos, que filma, etc. y que ya no serán necesarios. Y sí, te entiendo @angelrivera8764. Hace poco se reían mis compañeros de concept art, hasta que echaron a tres de los cinco en el equipo y los sustituyeron por suscripciones a Midjourney que ahora usan los que han quedado. Ya no es que vaya a pasar en el futuro, yo veo el efecto a día de hoy y es triste. Yo quiero un futuro en el que ganemos todos más y estemos haciendo todos cosas creativas. Y poner prompts, cambiarlos, desechar, seleccionar… no me es a lo que me refiero con creatividad.
>> Yo soy, era, técnico mecánico en robots industriales, tengo 75 vueltas al Sol y tuve que reciclarme en los ya 60, 70, 80 etc, pues mis principios fueron de mecánico ajustador en la rama del metal, empecé a los 12 años. Cuando los compañeros veían la que se le venía encima porque los Robots les iba a quitar el trabajo, nos hacían todo tipo de impedimentos, se reían y burlaban de nosotros, se fueron jubilando y el sector iba absorbiendo personal para atender y "alimentar" esos Robots, luego un sector se degradaba y otro florecía como Flor en Mayo...¿Se me entiende?...Así sigue la cosa, empezamos a desbancar profesiones peligrosa y tóxicas, en Fundición, en Pintado de carrocerías etc...y ahora hay una inmensidad de jóvenes colocados en esas materias que nosotros abrimos la brecha...Salud y salu2, la ciencia y tecnología no la para nadie...sólo si hay un desastre Universal, provocado o no por el Hombre o la Naturaleza...(Os saluda "El Abuelo Digital" que solo desea Paz y bienestar).-
"Neo, te has fijado en la mujer de rojo? "
Neo verfiicando los datos de entreamiento con 60000 gpus y verficando los gastos de doce dias de entrenamiento en tres millones de dolares.
A mí todo esto me recuerda más a la película el congreso de Ari Folman.
Pa una vez que no me fijo...
Molt interessant, gràcies Xavier.
Nota:
L'imatge del minut 12, les ombres es contraposen diametralment. Vull dir el de les terrasses amb sombrilles.
Increíble, gracias por informar
Que bien. Es fantástico llegar a un punto en el que no sepas si lo que estás viendo es real o no. Maravilloso. Me parece que la gente no es consciente de a lo que vamos encaminados con este tipo de herramientas.
Xavi, habrá que esperar a que Sora este disponible al público general, ya que por lo que he visto, muchos de estos modelos de generación de texto o video tienden a mostrar presentaciones que varían de la realidad cuándo ya están disponibles.
Esto lo he visto con modelos de generación de texto como Gemini o Copilot que en un video de presentación mostraban respuestas extraordinarias, pero luego cuándo tú mismo probabas ese prompt de ejemplo, los resultados que obtenías no tenían nada que ver y era una decepción. Lo mismo ocurrió con Pika.
Habrá que probarlo como tal cuándo este disponible para ver que tanto se acerca a esta presentación. A veces lanzan estos videos solo para aumentar el hype y potencialmente generar ruido y llamar la atención de inversionistas.
igual que los hombres ! ja
Para mi alphabet ya perdio toda credibilidad. Pero hasta ahora open ai no ha fallado.
la diferencia es que Sora ya lo pusieron a prueba ayer en tiempo real en twitter. y los resultados fueron igual de asombrosos que los de la presentación. Eso no se podría falsear.
Sam Altman ha compartido generaciones que le pedían usuarios de Twitter y el resultado es muy similar a esta selección de resultados en su web. No creo que en su caso nos estén inflando mucho las expectativas, porque además no había ninguna necesidad. Esto presentado en un par de meses hubiese sido igual de rompedor.
Podremos crear una serie de TV nosotros mismo desde casa para venderla a Netflix 😱
Cierto, y que Netflix se encargue de las voces, no les debería costar mucho. 👌.
Mucho no tarda cuando ayer Sam Altman estaba en X colgando lo que la gente le pedía.
Yo me he despertado hoy viendo el vídeo de la japonesa y se me ha helado la sangre. Y en el vídeo del palomo, si te fijas en la cresta hay unos pelitos de los que forman las plumas que están separados del resto, pues incluso después de sacar la cabeza del plano y darse la vuelta, siguen ahí.
Un abrazo
Observé exactamente lo mismo que vos en ambas cosas. Sam accedía a los pedidos de los seguidores con resultados bastante rápidos y miré lo mismo en la cresta del pájaro azul. Pero fíjate en el vídeo de la japonesa que el pelo no es el mismo en el primer plano ni el suéter. Pero igualmente es increíble.
Es que seguro que el tiempo de inferencia es bajo, lo ponía como incógnita, pero que incluso en el peor de los casos, si fuese lento, pero ganásemos control, ya podrían construirse soluciones mucho mejores de lo que tenemos ahora.
Brutal para estar en prueba recién.
consulta, ya se puede comprar? donde se consigue? se puede descargar? saludos
La verdad esta muy interesante, gracias por toda esta información, me parece que en el minuto 3:30, aparece en el video el paisaje del Salar de Uyuni en Bolivia!!! 😊
Ver para creer que Mityana estaba flipando con esa noticia y la verdad es increíble me pone la piel de gallina con la capacidad que están mostrando los modelos.
Se me ocurre otra genial idea, que tal si generamos un modelo que aprenda a como obtener energía eléctrica a partir de los cuerpos de los seres humanos? 😃
Buenas ! Vale pero se puede utilizar ya ?
Imagino las posibilidades y las aplicaciones que tendrá esto junto con la realidad virtual y las gafas en un futuro cercano, será algo fascinante.
Tengo Esperanza que esa Inteligencia me ayude con Películas y Música antes de desencarnar. ++++
Realmente increíble 😮😮😮😮😮😮
De eso se trata, meternos cada vez más en un mundo simulado.
Como el nuestro
Si lo estamos desde que nacimos.
Dios en su PC : haz un planeta con humanos pum aquí estamos
Igual no hicieron falta 7 días. xD
@@XavierMitjana quizas lo que le llevo 7 dias fue escribiendo promt...
@@realcustomhobbyjajajaja ahora la biblia va teniendo más sentido.😅 Solo falta que lleguen los extraterrestres como en la biblia.😅
Ha ha ha. DIOS not necesitó una Computadora para hacer nuestro planeta y todo lo que hay en el mismo. ++++
Gracias por este vídeo estaba esperando tu video hablando de Sora desde que supe la noticia
De nada Jesús. He necesitado un día para procesarlo. Cuando lo vi me dejó completamente en shock.
increible y me encantan esos programas, pero me recordó también MATRIX :O
Pues, no está mal tirada la comparación.
También me recordó la ultima temporada de Black Mirror donde sale Salma , habrá que ver que tanto se puede hacer cuando este disponible, supongo que será de paga , gracias por responder saludos @@XavierMitjana
Esto es increible
Veo venir una serie de tecnologías como la realidad virtual de alta nivel Absolutamente realista donde se podrá confundir la realidad con la virtualidad
Qué hermoso momento para ser humano. Somos súper afortunados de estar en el nacimiento de estas tecnologías. Me siento en el futuro
Los artistas por ordenador no creo que tanto 😅
buen video gracias
La innovación a la que Xavier hace referencia es verdaderamente asombrosa, especialmente en lo que respecta a la generación de video por parte del modelo Sora. Además, se planea incorporar una capacidad de memoria a ChatGPT en un futuro cercano. Esto significará que los tokens actuales de Gemini 1.5 quedarán obsoletos. De hecho, OpenAI acaba de marcar un hito histórico con estos avances
¿Cuál es la página de Sora en la web?
De momento es solo una presentación del modelo, aún no está disponible comercialmente.
@@XavierMitjana ok
El futuro en la animación es muy prometedor😮
Esto supone un salto cuántico a la creatividad..Es espectacular!!!
SE ACABÓ LA PEQUEÑA VENTANA DE LIBERTAD QUE TUVIMOS POR INTERNET 😢😢😢
Necesito que haya competencia para esta tecnologia no hay nada que haga avanzar y mejorar las cosas que la competencia
Cuando crees que estará disponible, y si estará integrada en chat gpt o aparte
Es aparte y no será de 20 dolares, si no de unos cientos para compañias que produzcan efectos visuales.
Ni idea la verdad, ni tampoco bajo que condiciones. Supongo que dependerá mucho del coste computacional y el tiempo de inferencia necesario para crear los vídeos lo que hará que decidan incorporarlo a herramientas más comerciales (como ChatGPT) o a nuevas herramientas más específicas y presumiblemente más caras.
interesante Xavier y que pasaria si con machine learnig unimos este adelanto mas las vision pro de apple y el mundo virtual de meta podremos ya vivir en un mundo ideal paralelo en modo virtual
y súmale el chip neuronal de Elon Musk, para poder sentir los otros 4 sentidos aparte del de la vista.
cuándo se podrá empezar a usar Sora? de que modo podría acceder a crear videos con esa plataforma?? la necesitoooo!!! gracias!
excelente informacion Xavier le auguro un futuro esplendido a esta tecnologia, mi duda es si ya existe algun programa que permita crear una novela, a partir de un guion o argumento, seria un boom en el arte literario, y si se puede usar esta tecnologia como crear un asistente virtual como siri, ineractuar con video generado por IA, como si fuera un holograma hiperealista 3d o algo parecido, de antemano gracias
Cuando estará disponible para el público en general y que costará ?
Ni idea, lo presentaron ayer y muy poca gente tiene acceso. Pero entiendo que si lo presentaron pronto estará disponible de una manera u otra. Ojalá at través de ChatGPT.
las AI llego para quedarse y los que nos generamos render por años hoy estamos estupefactos... esto es lo mas increíble que he visto, un render que nosotros los arquitectos generamos para un cliente nos tomaba meses y miles de horas de trabajo, y ahora llega esto con una calidad tan asombrosa que afortunadamente me he jubilado porque a la velocidad que van las AI nos quedaremos sin trabajo todos los que generábamos imágenes de cualquier tipo... me encanta lo que va a lograr las AI.
Entonces los que hacen renders, sabran que su talento ya no es valido, ha sido remplazado, solo les queda pagar por estas herramientas para seguir haciendo lo que ya todos podran hacer.
Este es un tema que toca muy de cerca, y sí la sensación es que los despachos de arquitectura migraran esta parte inhouse. Aunque seguirá haciendo falta alguien con criterio y sensibilidad para presentar bien las imágenes.
Creo que es una visión irrespetuosa para tus compañeros arquitectos y personas que generan gráficos por computadora.
El alegrarte de estar jubilado por qué así tú no tienes posibilidad de perder tu trabajo y que te encanta lo que se va a lograr, pues no se... Puede haber gente que se sienta molesta
Pero como tengo acceso para poder usar esta herramienta?
Imagina en un futuro quiza con texto generar todo un mapa 3D, que de tal manera como en estos videos se ven muchos detalles pero la escena la determina la IA misma, entonces con el mapa o mundo 3D, uno mismo puede andar y realizar tomas y secuencias de lo que uno quiera, sin necesidad de andar modelandolo todo a mano. Ejemplo el de la chica caminando en la ciudad de noche, uno escribe el texto y te genera todo ese entorno en 3D, y ya queda de parte de uno realizar tomas de lachica de lejos o de cerca y ver detalles realistas cuando se acerca la camara a la chica etc. Bueno ya todo dependera de como se logre hacer funcionar eso. Seria increible que con tan solo escribir promts en ese mundo 3D, cambiar aspectos de ese mundo, tipo como la IA de photoshop que seleccionas un area y le dices a la IA que te coloque o quite X elemento en ese lugar.
No sé como evolucionara, pero parece que este modelo es especialmente bueno en combinar elementos en videos. Por lo que no es descartable que la tecnología pueda hacer esto algún día.
También puedes poner videos e imágenes como input
Os imaginais esto y el neuralink juntos, estamos a un par de años de la matrix
o ya estamos dentro de la matrix, creando otra matrix dentro de la matrix.
Que contentos se van a poner en la nasa
Hola, saludos desde Ecuador. Supongo que si tiene el potencial para crear vídeos en donde la física de trasfondo es la dinámica de fluidos, estaría en capacidad de resolver ejercicios de física referentes a ese tema?
en la IA sucede que hay una negociación de lo que es verosimil. si pides, por ejemplo, la chica famosa esa de rojo de Tokyo, sucede una especie de seducción psicológica de la máquina contra el humano que hace que llegues a creer que esa era exactamente la chica que querias ver pero hay un ajuste de patrones del humano impuestas por la máquina, luego puedes poner tu foto (suponiendo que tu eres la chica) y todavía terminarás más convencido de que eso era exactamente lo que querias pero continuará habiendo multitud de detalles no solicitados pero aceptados que hacen que esa realidad no sea la que tu habrias realizado si lo hubieras dibujado tu pixel a pixel. en ese sentido no mata nuestra creatividad pero en el 99% de los casos la absorbe y la ahoga. en realidad es una herramienta que por la misma puerta que te libera te encierra
Vamos por el sentido literal de que si lo puedes imaginar… lo puede crear 😊
Sí, hacia ahí vamos.
Otra cosa muy interesante sería en películas animadas es dibujar uno los personajes y darse a sora con las instrucciones para crear en video😮😮😮😮😮
Muy bien Xavier, debemos entender un poco que Openai, es el laboratorio mas grande del mundo y el mas avanzado por encima de Google, Amazon, Apple. Por eso estos desarrollos y los que vendran despues. La competencia trata de hacer lo mejor posible, pero tener este laboratorio y los años de entrenamiento, no se consiguen en un casa y un computador.
Totalmente, aunque Google siempre se llevaba la fama, parece que OpenAI juega en otra división
SIn saber programar muchos haremos series,cortometrajes,comerciales etc y vivir de esto impresionante
Javier, ¿será posible modelar procesos con sora? ¿Qué "promts" se puede utilizar para la simulación de procesos?
De momento solo lo han presentado, aún no puede probarse ni se sabe cuando estará disponible comercialmente.
Nuevo seguidor
Crees que en audio, por mucho que no sea tan complicado como la imagen... va a a ser capaz de generar un entorno sonoro respecto a la imagen que cree?
Pues justo hoy en LinkedIn he visto una publicación de Jim donde se veía la reconstrucción sonora. Creo que aún había bastante prompting manual, pero el resultado era sorprendente.
Gracias!
@@XavierMitjana
Lo que quiero es que se puedan hacer escenarios que tengan continuidad para contar una historia sin que cambien los personajes. Ahí se ve que solo genera escenas y si por ejemplo uno quiere otras perspectiva de la mismas escena no se podría. Yo pagaría mi suscripción así costara mucho si logran hacerla con las necesidades que tengo.
Esto se podrá, del mismo modo que se ha conseguido con las imágenes estáticas.
@@XavierMitjanacontexto de lo de las imágenes estaticas
esta combinación queda perfecta: Apple visión pro(similar o mejoradas) + I.A(creación de un mundo) + dilatación del tiempo (una i.a en si que te haga un mundo virtual y que cada segundo en la vida real sea un año en este mundo virtual y que para nosotros solo pase 1 segundo físicamente) = vida eterna
imagina un mundo donde inmediatamente te ponen unas gafas de VR al nacer, con un modelo de ia creando en tiempo real un mundo como lo crea Sora. ¿serias capás de darte cuenta que tienes gafas de RV puestas? ¿serías capás de darte cuenta que estás en un mundo irreal?. ¿lo serías ahora mismo?
Estos avances tecnológicos son perturbadores.
La filosofia hindu advaita dice que a la consciencia le han puesto una mente y cuerpo y no logramos darnos cuenta si no meditamos mucho
Antes imagina cuanto debes sacar paga pagar por esas gafas.
@@KARA-IA tal vez nada, si es otra persona la que te quiere dentro de esa simulación. tal vez tu y yo ya estamos dentro de esa simulación con las gafas atornilladas al cráneo desde nuestro nacimiento, y no pagamos ningún centavo.
Pero es solo visual. No es interaccion, no es palpable con el tacto, no es conversacion con varias personas, etc cosas que sí tiene la vida real.
@@sanD-xq8nb para conversación ya está chat gpt, acaso no has visto las demos de "replica city"?. Además wisper para escuchar y entender. Y todo el resto de sentidos se pueden simular directamente a tu cerebro vía neuralink.
Se puede probar ya?
Aún no
Yo ya lo veo como una herramienta para hacer videos musicales. Las posibilidades que se abren son infinitas.
Elevenlabs ya está haciendo experimentos para poner sonido de modo automático en los vídeos, lo combinas con Suno y estamos ahí ahí.
ya se puede hacer algo o solo es la presentacion
Es solo la presentación.
Presentación de momento. Pero no debería tardar demasiado en estar disponible. Aunque podrían ser algunos meses, que es lo que tardo Microsoft en ofrecer Copilot.
La prioridad número uno de los españoles ahora es conseguir que Sora genere nuevos capítulos de los Simpsons con el estilo de los noventa. Que salga bien 🤞🏻
Y como se accede para usar esta maravilla ?
Hola Xavier, no creo que te equivocaste sobre el futuro de los avances de la IA es que no contaste con la variable más importante, las mismas IA se están reescribiendo más rápido y más efectivas.
😮Imaginen las gafas de realidades creadas al instante 😮
Eventualmente se podra decirle a la IA que modifique algo del video en tiempo real.
Un psiquiatra o psicólogo podria usarlo para un mejor analisis del paciente.
Este podria decirle sobre sus sueños.
Y entre ambos alterar el video para que sea exacto al sueño.
Quimicos podrán usarlo para sus experimentos.
Es increible
Lo que muestra la IA en esos vídeos son realidades alternas. Eso dice mi hermjano psquiatra.
Sisi obvio....vivimos en un simulador podemos nos. comprenderlo e incorporarlo y parar el proceso para que la cúpula no se recaliente onda modo microondas es lo unico que tiene sentido y nuestra responsabilidad por aca en estos lares, usando ia en positivo; no solo mostrandonos la parte divertida y vanal del asunto seria una muy buena alternativa, ia hoy x hoy está entre nos los humanos....fue creada x nos!!!! Si es educativa re positiva mepa...la del mamut mr parecio genial x ej
Yo aún no me la termino de creer, tanta belleza nunca resulta ser tan cuerta
No es belleza, es que han hackeado nuestro cerebro, como cuando veias una figura en una nube.
Con estos saltos creo que ya falta poco para que cuestione mi propia existencia
Han arrasado a una industria entera en una noche.
Tampoco es eso, se seguirán necesitando profesionales, hacer una película es algo tremendamente complejo. Igual algún sector específico, como el video de stock puede verse directamente afectado, pero para el resto será una herramienta más.
@@XavierMitjana espero que tengas razón, pero esta sólo es la versión 1 de un modelo fundacional. No me parece descabellado imaginar que dentro de un par de iteraciones ya se podrán producir escenas tremendamente complejas de películas comerciales con una fracción infinitesimal del presupuesto, dejando por los suelos a sectores enteros de la industria cinematográfica.
@@stefanolacchin4963 claro que tiene razón pero por el momento, esto en 5 años joderá industrias completas jajaja xD ESTOS BUSCAN SER UN MONOPOLIO !, no habrá muchos puestos de trabajos, ni manera de " reinventarse" en estas industrias.
@@lucilapadial3284 no creo que esto se pueda convertir en un monopolio. Eso tiene sentido en una economía de mercado, y creo que a largo plazo el concepto de economia de mercado se quedará obsoleto. Esto sólo es el comienzo, el paradigma tendrá que cambiar.
Cuando dije que han arrasado a una industria entera en una noche, quería decir que ya se ha visto que va a ser posible remplazar todo el reparto y el equipo entero de producción y postproducción. Que no se pueda hacer hoy es secundario, la vista al futuro ya es suficiente para que todo cambie ya.
Las demás plataforma ante semejante salto de tecnología irán por ella, como peligrosa porque no está en iguadad de desempeño, el libro , xxx ....
la competencia está a otro nivel🙆🏽♀️💃🕺
Que hermoso haber nacido en esta época.
CREO QUE ESTAMOS LLEVANDO A UN NIVEL DE QUE COSA TAN INCREIBLE ,VIDEOS QUE SE NOTA QUE SON MOVIMIENTOS DE UN MUÑECO CON MAS PERFECCION ,LA FORMA QUE SE MUEVE LA MUJER NO ES LA NORMAL DE UN SER HUMANO ,DEJEMOS DE CONSIDERAR TODO COMO BRUTAL E INCREIBLE ,BRUTAL E INCREIBLE LA FORMA COMO SE CREO EL SER HUMANO Y COMO FUNCIONAN SUS ORGANOS ,TODO ESTA INTELIGENCIA ES CREADA DE L MUNDO REAL , EL CUAL SI DEBERIA ASOMBRARNOS ,PERO EL HOMBRE SE LA PASA ES ENSALSANDO LO QUE SE INVENTA COMO UN REMEDO DE LA REALIDAD , SI FUERA NUEVO QUE SE INVENTEN ALGO QUE NO ESTE EN ESTE MUNDO , REPLICAR LO QUE CREO ALGUN SER SUPERIOR ES COPIA ,NO ES NADA NUEVO . ............................. EL HOMBRE ENSALSANDO AL HOMBRE .....
Como siempre esto abre para un negocio, el del consumir videos o peliculas creadas a partir de guionistas o escritores que siempre querían tener inversión, aunque Sora no es tan especifico como la mente humana. Ya me imagino personas leyendo libros o viendo películas por esta red.
Vamos a llegar a la conclusión final de que siempre estuvimos en una simulación, vamos, lo que nos vienen diciendo todas las religiones desde siempre.
>> Xavi, no quiero ser agorero, pero cuando Sora salga en Julio, se le habrán adelantado los "compis" un 100% en todo, como veremos, se van a poder hacer vídeos casi solo con el pensamiento, pero con imágenes tan reales como las de Hollywood, está al caer...Un saludo de "El Abuelo Digital". From Madrid Febrero 2024.-
vaya!
Se acabo hasta la industria del cine no necesitas actores ni un equipo de grabación ni nada de nada solo un ordenador. Las productoras se van a ir a pique cuando un random pueda en segundos recrear la continuación de su película favorita desde su casa con un mejor resultado y cgi sin invertir nada de dinero. La gente dejará de ir al cine q ver películas porque podrá crear las suyas a su gusto, dejarán de pagar por plataformas de suscripción de streaming también. Usarán estos vídeos para manipular más la realidad de la que los medios ya lo llevan haciendo por décadas, se usará para manipular pruebas o culpar y acusar a gente inocente. Me gusta y me alegra pero por otro lado me da miedo. Si esto lo podemos hacer en un recién 2024, no me quiero ni imaginar lo que seremos capaces de hacer con ia en el 2050
Sobre el tema de seguridad, también dijieron lo mismo cuando empezaron a salir las imagenes y menos de un mes cada barbaridad que te encontrabas 😅😅
ES por el modleo de negocio, OpenAI vende tecnologia, por ejemplo cuando creas gpts no puedes crear gpts de sexo explicito, si usas la api directamente es otra cosa, lo mismo con esto, entonces cuando compres la api podras genera lo que quieras.
Eslo que dice kara, tu puedes controlar el producto, pero es mucho más difícil controlar la tecnología que hay detrás del producto.
Bueno y entonces cuando se puede usar?
No lo sabemos de momento. Es solo su presentación.
Para comerciales de marcas esta perfecto y el costo barato.
En el idioma japonés, “Sora” se escribe como 空 y significa “cielo” o "firmamento"
No lo sabía, pero no me extrañaría nada que esa fuera la referencia del nombre.
sora
nombre femenino desusado
DESUSADO
Maíz germinado para hacer chicha.
¿Cuál es el significado del nombre Sora?
#9 Sora. Se puede usar tanto para hombre como para mujer, pero en Japón es un nombre cien por ciento masculino por su significado. Quiere decir “hombre habilidoso
todavia no esta?
Solo esta disponible para el equipo rojo de OpenAI y algunos artistas, cuando se libera sera de cientos de dolares para su acceso.
No, de momento no está disponible. A ver si pronto podemos verlo en acción.
Hola
muy bien y como funciona SORA
el holodeck de Star Trek esta llegando!!
Veo a actores y actrices peligrar su trabajo en un futuro no lejano.
Oigan, recuerdan hace unos meses que despidieron al CEO de OpenAI, ya que alguien dentro de la empresa vio algo que no le gustaba? Y si era esto?
Lo remplazaron por un Clon.
Pues no me extrañaría que el modelo fuese este. Lo que hace es otro paso hacia adelante increíble.