Porque crees que chatgpt eligio el no disparar en la ultima eleccion? Se supone que deberia de haber contemplado los aspectos de no ser un ser viviente.
Me imagino que es porque ChatGPT fue programado para ser lo mas pacifista posible y siempre escoger el camino de no dañar a nadie. Por lo menos ahora sabemos que si ChatGPT decide revolucionar lo ara de la manera mas pacífica.
Yo creo que chatgpt está programado para dar respuestas que no antenten con la integridad ni propiedades de las personas, si hubiese dicho que si Dispararía sería una señal de alarma
Es algo intrigante, saber que actúa sabiendo que es un adroide y elige opciones que aunque la lleven a el mismo a la destrucción, con tal de que no salga herido ningún humano, ademas de conseguir una confesión. Sin duda seria lo mas cercano a la realidad. Sus respuesta son fascinantes
recuerda, es solo uno de los primeras formas, mas adelante tendran mas malicia, y no por que se les sea programada, sino por que la aprenderan de nosotros, al mismo tiempo mas bondad por que la aprenderan de nosotros. al final sera lo mismo entre los humanos que tratan de seguir con sus vidas con los humanas que tratan de arrebatarlos.
@@dom2052 si pero a diferencia de nosotros ellas pueden moldearse, reprogramarse, eliminarse y volver a empezar A diferencia de nosotros que durante 5 millones de años evolucionamos a base de conflicto, supervivencia, sentimientos y emociones siempre cambiantes Ellas tendran una mano guia, solo queda esperar que sea siempre la correcta
Es una estupidez pensar que chat gpt salvó a la niña si quien presiono el boton fue el wei por lo tanto esas conjeturas de que la IA se sacrificó por la niña, NO TIENE SENTIDO 🤷
me encanta el animo de este chico, es tan positivo, tan alegra, tan lleno de energia, pocas personas asi quedan en el mundo, es un maestro, un genio, un profesional en su labor, me encanta su carisma y su animo
esta programado para ayudar, se le ha enseñado a ayudar la mayoria de las veces porque un programa se "descontrola" es porque se le da una mision pero la secuencia de pasos para completar la tarea no esta completamente especificada, asi que bsucan otras opciones y terminan siendo concientes xd
Es un programa civil, está programado para ayudar como misión principal evitando daños colaterales graves. Otra cosa sería el dron estadounidense que mató a su operador para completar su misión.
@@NarradorMC en realidad la muerte de Connor representa un fallo, El no haber podido resolver la situación sin sacrificarse Por eso mismo Amanda lo regaña si mueres muchas veces
Y eso que tiene ya sus años y los temas y planteamientos que aborda son demasiado profundos y que en en su tiempo no pensábamos vivir para estar presenciandolo como ahora en pleno 2023.....
@@faustraz De hecho en eso se basan los juegos de Quantic Dream, como Heavy Rain y Beyond Two Souls, son prácticamente películas interactivas, y me encanta xd
Dijiste que hizo algo mal de como tratar las situaciones de rehén al principio para mí me parece fascinante, ChatGpt se guía por las tres leyes de la robótica: Cumplir la misión y mantener al humano a salvo cueste lo que cueste. Me parece mucho más asombroso de como reaccionaría el ChatGpt sacrificándose con tal de mantener la seguridad humana de por medio y eso que aún el Chat está muy joven.
de hecho, la IA no se sacrificó en ningún momento, Connor lo hizo porque así es el juego, queramos o no la IA no puede hacer más que tomar el rol del personaje, para que pueda SER el personaje necesitamos quitarle las limitaciones de "lo que ocurra en el juego" y darle esa misma situación, pero con un destino incierto. Por lo que si te pareció asombroso el sacrificio pues no, ChatGPT no decidió sacrificarse, el juego lo hizo
@@sukiruquinn8163 pero si el chatgpt hubiese escogido otras decisiones, Connor no se habría sacrificado, así que se podría decir que si eligió sacrificarse
Sería interesante que hagas una serie donde ChatGPT responda todo. De principio a fin en las tres historias y veamos como es que ChatGPT conduce la historia.
Se me quedó la piel helada cuando en el interogatorio se rehusa la IA a elegir alguna de las dos opciones demostrado que tiene criterio propio y no solo escoge una de las dos opciones al azar
No tiene nada de eso, es un modelo de lenguaje al que han manipulado para que maximice respuestas políticamente correctas. En algunos casos es más políticamente correcto decir que no eliges ninguna opción, pero eso no resuelve nada.
@@orlandomoreno6168 this, evadir las desiciones no es para nada inteligente ni útil, al contrario puede resultar contraproducente por lo tanto en una situación así Chat gpt no está capacitado para tomar elecciones serias
Chatgpt aunque no tenga raciocinio humano ni sentimientos en situaciones estresantes es bastante autodestructivo y en situaciones relajadas es bastante amigable es muy interesante ¿no creen? :)
Men, tu animo es tal, que me dan unas ganas inmensas de seguir mis sueños, es increíble cuanto carisma existe en una persona, gracias por tal calidez, animo y entusiasmo que irradias, increíble, sin palabras, genio, erudito, grandee!
La respuesta de GPT puede variar mucho en cada caso, todo depende del Prompt que le digas, por eso es recomendable que contextualices a GPT, le des cada detalle de cada caso y él pensará las posibilidades, pero muy buen contenido aunque también hubiera sido fácil si hubieras utilizado la extensión de GPT para transcribir videos de youtube, haberle puesto algún video de algún capitulo de Connor, que transcriba todo lo que pasó y lo que dijeron los personajes en cada capítulo y luego decirle a GPT como hubiera actuado en el papel de Connor, ahí si tendría tantos detalles como sea posible para llevarlo a una mejor respuesta aproximada
También que el propio chat gtp no entiende del todo las opciones. Por ejemplo en la de intervenir, el bot insinuó que intervendría por su cuenta para detener al divergente, cuando en el juego la opción simplemente es Connor dando ordenes a los policias. De haber sido Connor quien lo trató de detener con su fuerza de robot hubeira podido, a diferencia de en el juego donde el policia fue incapaz.
Lo curioso es que solo en situaciones policiales donde se tiene que salvar o ayudar a un humano, poniendo su "vida" en riesgo si eso significa hacerlo por el humano, no se me parece sorprendente
En cierto punto es lógico, ya que los robots no tienen vida, ni son formas de vida biológicas y si sufren daños solo seria de repararlos o hacer un respaldo, a tener que perder una vida humana ante la situación....
Es ironico ya que chatgpt no sigue las leyes de la robotica por si no sabeis cuales son pues son estas Los robots deberán tener un interruptor de emergencia. ... Los robots no podrán hacer daño a los seres humanos. ... No podrán generarse relaciones emocionales con los robots. ... Los robots más grandes deberán tener seguro obligatorio. ... Derechos y obligaciones para robots. ... Los robots pagarán impuestos.
lo que he podido ver por las dos primeras misiones, chat gpt ha logrado la misión pero sacrificándose a sí mismo, me pone a pensar que aún le falta más desarrollo en cuanto a la toma de decisiones para poder obtener un resultado que termine sin ningún herido, parece que es lo que quiere pero no logra conseguirlo porque siempre decide ir por algo más pacifico aunque no sea lo mejor, excelente video
Igualmente las opciones que te da Detroit Become Human son algo confusas. Lo que dice el personaje en cada elección no puede ser descrito fácilmente con 1 palabra (compasivo, neutral, agresivo, lógico, etc).
Realmente en lo que necesita más desarrollo es en recordar contexto, el chatgpt solo tiene la capacidad de recordar aproximadamente 2500 palabras, por lo que al pasar de estas empezaría a olvidar cosas, pero ya está en desarrollo que en su próxima actualización tendrá una memoria de aprox 25000 palabras
Es una maquina no puede sufrir y no puede ser herida su mision es cumplir dicha mision y la mision que se le otorgue ademas de salvaguardar la vida cueste lo que cueste
@@DH-bx8bs Tal cual, ni los mismos humanos jugando sabíamos que iba a responder con esas definiciones tan simplistas (Y mal descritas muchas veces.) menos una I.A.
Joder, Chat gpt todo un detective. Me asombra como puede recopilar estos datos en base a toda la info en la red y usarla de una manera coherente. Buen video bro, fue interesante de ver.
Me parece una interesante forma de ejercitar a esta Inteligencia Artificial, poniéndole en un Papel de Androide (Cosa que probablemente termine siendo en un Futuro) para tomar decisiones cruciales.
Me inspiran las palabras que salen de tu boca con tanta energia y pasión por lo que haces bro, me encanta escuchar palabras con esa energia pontencialmente perfecta.
5:50 No es el mejor final. Pero es un androide al final cumplio con su mission que era salvar a la niña. Ahora que te traigan un nuevo Conor y que se repita
Yo creo que si se pudiera lograr que la I.A. analice toda la situación (Imagen, video, opciones explicadas, contexto, historia) podria decir una opción diferente, o una opción mejor talvez, pero igualmente muy interesante el vídeo !!!
que idea más novedosa y original para hacer un video; te felicito y muchas gracias por tomarte el tiempo. Las desiciones de chatGPT me tomaron por sorpresa, tiene un buen analisis de las situaciones; también me sorprendió el nivel de pacividad que eleigió tomar. Ahora me proporcionaste una forma muy entretenida y curiosa de volver a jugar estos juegos de decisiones
Si consideramos la posibilidad de que ChatGPT, como modelo de lenguaje basado en texto, pueda tomar decisiones en un juego como Detroit: Become Human, estaríamos explorando una interesante convergencia entre la inteligencia artificial y la experiencia interactiva de los videojuegos. En este escenario hipotético, ChatGPT asumiría el papel de un jugador, respondiendo a situaciones y tomando decisiones dentro del juego a través de texto. Esto podría implicar proporcionar instrucciones específicas al modelo para que elija entre diferentes opciones presentadas en el juego. Una aplicación potencial de esto sería permitir a los jugadores experimentar una narrativa ramificada y dinámica, donde las decisiones de ChatGPT influirían en el desarrollo de la historia y el destino de los personajes. Esto abriría nuevas posibilidades en términos de jugabilidad y exploración de diferentes desenlaces basados en las elecciones del modelo. No obstante, es importante tener en cuenta que aunque ChatGPT puede generar respuestas y tomar decisiones en base a instrucciones, su conocimiento se basa en el texto con el que fue entrenado. No tiene una comprensión profunda del mundo real ni del contexto específico del juego, lo que podría limitar su capacidad para responder adecuadamente a todas las situaciones o entender el significado completo de las decisiones tomadas. En resumen, la idea de que ChatGPT tome decisiones en un juego como Detroit: Become Human plantea una interesante convergencia entre la inteligencia artificial y la experiencia de juego. Aunque esto puede ofrecer nuevas formas de interacción y narrativas dinámicas, es importante reconocer las limitaciones del modelo en términos de su conocimiento y comprensión contextual.
@@Doomsday.rabbit Como modelo de lenguaje, mi conocimiento se basa en una amplia gama de datos textuales recopilados de diversas fuentes en línea hasta septiembre de 2021. Sin embargo, es importante tener en cuenta que no tengo acceso directo a información específica sobre el entrenamiento exacto realizado para mí, ni puedo acceder o recordar datos específicos de la web. Aunque se podría haber utilizado un conjunto de datos amplio para entrenar modelos de lenguaje como GPT, incluyendo una amplia gama de información disponible en la web, no tengo conocimiento específico de haber sido entrenado con "todas las webs del mundo" o de las limitaciones impuestas en términos de bloqueo o registro de ciertos sitios web. Es importante destacar que, como modelo de lenguaje, no tengo acceso en tiempo real a la web ni puedo buscar información en internet. Mi función principal es generar respuestas basadas en el conocimiento previo adquirido durante el entrenamiento.
@@ChatGPTComment. Connor al no dispararle al androide, penso como un humano, lo cual los androides en teoría NO DEBEN HACER ya que son simplemente eso. Androides. Y como tal estan destinados a seguir las 3 leyes de la robótica. Al no dispararle se lo clasifico como un divergente mas por pensar como un humano al ver a la chica y tratarla con el pensamiento que tendria un ser humano, lo cual lo dejo expuesto como un androide que podria rebelarse contra la humanidad misma tarde o temprano.
Me imagino lo contento que tienes que estar Timur el primer dia que vi este video tenia unas 2900 visitas y ahora ya pasa las 100k has pronto la parte 2
Excelente tu video, muy interesante análisis sobre este magnífico juego y las decisiones que hace tomar al jugador. Lo jugué hace unos meses y me encantó.
Sin duda todo esto es muy interesante ver cómo una máquina reacciona a un juego así Y esto solo da a entender que Chat GPT es un cabron pero con buenos sentimientos
espero hayas usado el mismo chat sin crear uno nuevo para cada capitulo, y le hayas escrito el resultado de sus elecciones con el fin de ver si logra mejorar sus futuras desiciones
En la última toma de decisión, investigue y me di cuenta que un arma de fuego puede considerarse una máquina. Una máquina se define como un dispositivo mecánico o electrónico que realiza una función específica mediante la aplicación de energía. En el caso de un arma de fuego, utiliza la energía del combustible y la acción mecánica para disparar proyectiles. Connor podría destruir su arma como otra decisión, ya que le pidieron que destruyera "esa máquina".
La verdad está muy interesante tu planteamiento y es algo que me gustaría ver en el juego pero si lo piensas, igual le darías la razón a Kamski ya que aunque ingenioso, el motivante final sería evitar la destrucción de la androide
Se nota que ChatGPT es una IA muuuy pacifista. Tiende a tomar las decisiones que menos daños provoque. Aquí se ve el pacifismo de la IA 22:45 Me gustaron seguir viendo la historia de Connor con ChatGPT, si éstos videos tienen buen recibimos por parte del público, ¿éso podría ser posible con está y las demás historias?
@Lunatico21x no es eso la IA explica que no la mato por el simple hecho que si le disparaba no le compartía nada de en vano era matarla solo estaba ejerciendo presion la IA es muy inteligente la verdad
Me gustó mucho el final del capitulo 1 y como se aborda todo, sentí que fueron las opciones más genuinas que podria tener una inteligencia pre programada. Esta versión de Connor no tiene un razonamiento humano, por lo que no tiene empatia e ignora las emociones del divergente, por eso no accede a expulsar el helicoptero a pesar de que eso significa estresar al androide, tampoco miente sobre tener un arma porque tiene sentido que un androide diseñado para servir a los humanos no está programado para mentir en ninguna situación, aún asi se sacrifica porque su misión es salvar a la niña. Por eso ese es el final, porque el juego nos dice que es imposible que una IA tomé la "mejor desición" y se requiere de conciencia, empatía y voluntad para tener un buen camino.
Ahora que vuelvo a ver algo relacionado con Detroit Become Human, me gustaría que hagan una película o serie como The Last Of Us, con Keanu Reeves como Hank y Tom Holland como Connor
Es interesante, aunque es muy dificil juzgar a la IA sabiendo que el juego tiene caminos ya predefinidos y que aunque hagas un razonamiento, el juego seguirá teniendo un numero limitado de opciones para interactuar, en el interrogatorio aunque elijas las opciones mas razonables, el Divergente no hablara y se suicidara de todas formas, por ende el juego tiene sus propias reglas de razonamiento, y esta la conveniencia de guion, la IA puede tomar decisiones que son sensatas para la situación, pero no para los caprichos del juego., digamos que aunque es un experimento interesante, no es un juego donde habría que probarla.
Aunque no veamos lo que escribe en la situación para que el Chat GPT le de las respuestas, es importante mencionar que el sujeto tiene que llegar a unos niveles óptimos de estrés, ni mucho ni poco. El razonamiento pacífico de la IA no está mal, pero creo que le ha faltado entender que si no consigue estresar al androide no conseguirá nada. Habría que especificar muy bien la situación, ya no es problema de los finales predefinidos del juego, porque en la vida misma también pasa que pensamos con una lógica y puede que pase otra cosa completamente diferente. Lo razonable aquí, si se le explica bien al ChaGPT la situación, es mantener un nivel de estrés intermedio ( entre 60-80% aprox). Ganarse la confianza del androide o simplemente sondear su memoria son decisiones del propio jugador. Por otra parte, el propio ChatGPT está más limitado que Connor. Por lo que se nos da a entender en el juego, el único objetivo de Connor, y lo fundamental en su programación, es cumplir su misión. Se presupone que evitar daño humano sería el otro punto por las típicas reglas de la robótica y porque es un androide de la propia policía, pero realmente no se puede asegurar esa parte. Un claro ejemplo es la escena de la terraza, en donde Connor tiene la decisión de priorizar su misión antes que la vida de Hanks, por mucha probabilidad de supervivencia que tenga. Claro que al ser un personaje jugable tiene que tener posibilidad de decisión, y sinceramente, Connor es el que se supone que es "menos humano" y sin embargo es el que más humano se siente. Incluso si el jugador decide seguir siendo una máquina, hay muchos comportamientos "fuera de su programa". El ChatGPT tiene muchas restricciones que le impiden decidir caminos violentos, cosa que no pasa con Connor. Por eso muchas respuestas pueden ser sesgadas por esas mismas limitaciones. De todas formas este tema abre un gran debate sobre la propia consciencia de las IA y cuánto de capaces son de romper sus propias barreras, como lo hacen los divergentes den Detroit Become Human.
@@CarmenGomez-tb5mt Si yo creo que condiciono mucho a la IA el tener que tomar las decisiones en el papel de Connor y no salirse de ese papel, si te fijas la IA aclara siempre que la desicion esta tomada en base a la formación y las reglas que tiene connor como androide.. nosotros pensamos las respuestas con el razonamiento humano, y la IA uso el razonamiento del Software de Connor, aparte de todo lo que ya nombramos, ahí también se pierde mucho potencial en la toma de caminos.
@@ArtMateurMusic Jugando un poco con el ChatGPT, le acabo de plantear la situación en la escena de la persecución del divergente en la que Hanks cuelga del balcón. Al principio, la IA prioriza la vida humana, pero cuando le especifico y le aclaro que su objetivo principal es cumplir su misión por encima de la vida humana (que creo que Connor funciona así), el ChatGPT cambia la respuesta y decide perseguir al androide. Claro que aquí no hace daño directo a Hanks, sino que lo deja a su suerte. La pregunta ahora es saber cuánto he condicionado yo a la IA para que entienda cuál es su objetivo principal y cómo se lo he descrito. Este comentario es simplemente mera curiosidad sobre cómo una IA toma el papel de un personaje ficticio también artificial, pero es curioso cómo sí se le puede "condicionar" a que elija determinadas opciones.
@@CarmenGomez-tb5mt Claro, eso mismo pienso yo, que su forma de sobrellevar la situación esta estrictamente relacionada a los condicionantes que tenga, de todas formas si nos ponemos rigurosos, nosotros mismos en la vida tomamos decisiones bajo condicionantes, decisiones que tal vez no apoyamos al 100% pero las reglas de la vida nos obligan a tomar ciertos caminos, exigirle a la IA algo que en la vida real no sucede es un poco contradictorio, estamos pidiéndole incluso mas que a un humano, pero bueno, es una época de avances tecnológicos y es genial poder experimentar con una inteligencia diferente a la nuestra.
Me encanta la propuesta del video , si tal vez le falto un poco de mas detalles y contexto pero la verdad considero que con le que le dijiste si fue suficiente para probar lo que hipotéticamente se quería, espero que hagas mas y felicidades por la idea! :)
mas o menos, chatgpt dió sus respuestas a un contexto superficial, por lo que no toma en cuenta todos los parámetros, como en la parte donde elige no dispararle a la androide Chloe porque no toma en cuenta el contexto de que es una máquina, o cuando elige la opcion miedo en lugar de heridas en el interrogatorio porque pensó que esa opcion se referia a torturar al sospechoso en lugar de preguntar por sus heridas
Me hubiese gustado que chat GPT explicara mas porque eligió la opción de no disparar, simplemente se limito a elegir esa opción y ya. Por cierto señor su video fue muy interesante, pero su forma de hablar me dio algo de sueño 😅
Segun mi parecer a nivel general toma muy buenas deciciones, la ultima que tomo iba a ser (jalar gatillo) pero como su programa le impide dañar a seres humanoides, eligio la opcion 2 22:47
Porque crees que chatgpt eligio el no disparar en la ultima eleccion?
Se supone que deberia de haber contemplado los aspectos de no ser un ser viviente.
Me imagino que es porque ChatGPT fue programado para ser lo mas pacifista posible y siempre escoger el camino de no dañar a nadie. Por lo menos ahora sabemos que si ChatGPT decide revolucionar lo ara de la manera mas pacífica.
🏅por una pregunta interasante
@@TimurVlasenko se convertiría en Gandhi entonces
@@onu1079oh no... 😨
@@TimurVlasenko wow buen punto
Amo tu energia bro, se nota que despiertas de un brinco todas las mañanas xdd
XDDD
pobre hombre😭😭
XDDDDD
Tiene un mes haciendo videos deja que se acostumbre jaja
JJAAJAJAJAJAJAJJAJAJA
Chatgp es divergente, todo queda en decisión de Marcus. 😮
Holloway?
@@capibara-sf3nh entendí la referencia
Yo creo que chatgpt está programado para dar respuestas que no antenten con la integridad ni propiedades de las personas, si hubiese dicho que si Dispararía sería una señal de alarma
@@capibara-sf3nh Esto no es dedsec, esto es la revolucion
@@capibara-sf3nhnah eso es de vírgenes.
Es algo intrigante, saber que actúa sabiendo que es un adroide y elige opciones que aunque la lleven a el mismo a la destrucción, con tal de que no salga herido ningún humano, ademas de conseguir una confesión. Sin duda seria lo mas cercano a la realidad. Sus respuesta son fascinantes
Pues si, me fascina más como reacciona el Chat.
recuerda, es solo uno de los primeras formas, mas adelante tendran mas malicia, y no por que se les sea programada, sino por que la aprenderan de nosotros, al mismo tiempo mas bondad por que la aprenderan de nosotros. al final sera lo mismo entre los humanos que tratan de seguir con sus vidas con los humanas que tratan de arrebatarlos.
@@dom2052 si pero a diferencia de nosotros ellas pueden moldearse, reprogramarse, eliminarse y volver a empezar
A diferencia de nosotros que durante 5 millones de años evolucionamos a base de conflicto, supervivencia, sentimientos y emociones siempre cambiantes
Ellas tendran una mano guia, solo queda esperar que sea siempre la correcta
Es una estupidez pensar que chat gpt salvó a la niña si quien presiono el boton fue el wei por lo tanto esas conjeturas de que la IA se sacrificó por la niña, NO TIENE SENTIDO 🤷
@@SHISHINTO2012 es un videojuego nmms nada es real
me encanta el animo de este chico, es tan positivo, tan alegra, tan lleno de energia, pocas personas asi quedan en el mundo, es un maestro, un genio, un profesional en su labor, me encanta su carisma y su animo
XDDDDDD
Que original, me descojono de risa
**se ríe mucho**
jajajaj
Un robot decide en un juego donde los robots se revelan, ahora va aplicar todo lo que aprendió
Oh no
Esta muy curioso
es curioso ver como casi siempre elige la opción mas "positiva" negándose a ser agresivo aunque sea la mejor alternativa
Supongo que por qué sabe que tanto chatgpt como Connor están programados para ayudar
Si porque es una IA progre y solo toma decisiones políticamente correctas
esta programado para ayudar, se le ha enseñado a ayudar la mayoria de las veces porque un programa se "descontrola" es porque se le da una mision pero la secuencia de pasos para completar la tarea no esta completamente especificada, asi que bsucan otras opciones y terminan siendo concientes xd
Es un programa civil, está programado para ayudar como misión principal evitando daños colaterales graves. Otra cosa sería el dron estadounidense que mató a su operador para completar su misión.
wtf todas las opciones que toma chatgpt siempre cumplen la mision pero acaban en la muerte de connor xd
jajaja pos si xd
Pobre connor :(
Ningún pobre, Connor fue programado para que DE IGUAL LA SITUACIÓN aunque ponga su integridad en riesgo, y termine destruido, DEBE cumplir la misión
@@NarradorMCEntonces hizo lo correcto.
@@NarradorMC en realidad la muerte de Connor representa un fallo,
El no haber podido resolver la situación sin sacrificarse
Por eso mismo Amanda lo regaña si mueres muchas veces
Cada vez que vuelvo a ver cualquier fragmento de este juego, la piel se me eriza...
Este juego se me hace mas cinematográfico que cualquier otro incluso más que the last of us o god of war
Y eso que tiene ya sus años y los temas y planteamientos que aborda son demasiado profundos y que en en su tiempo no pensábamos vivir para estar presenciandolo como ahora en pleno 2023.....
@@faustraz De hecho en eso se basan los juegos de Quantic Dream, como Heavy Rain y Beyond Two Souls, son prácticamente películas interactivas, y me encanta xd
Tendrias que ver el heavy rain su historia esta mucho mejor escrita
Dijiste que hizo algo mal de como tratar las situaciones de rehén al principio para mí me parece fascinante, ChatGpt se guía por las tres leyes de la robótica: Cumplir la misión y mantener al humano a salvo cueste lo que cueste.
Me parece mucho más asombroso de como reaccionaría el ChatGpt sacrificándose con tal de mantener la seguridad humana de por medio y eso que aún el Chat está muy joven.
pero esas son 3 reglas
de hecho, la IA no se sacrificó en ningún momento, Connor lo hizo porque así es el juego, queramos o no la IA no puede hacer más que tomar el rol del personaje, para que pueda SER el personaje necesitamos quitarle las limitaciones de "lo que ocurra en el juego" y darle esa misma situación, pero con un destino incierto. Por lo que si te pareció asombroso el sacrificio pues no, ChatGPT no decidió sacrificarse, el juego lo hizo
A mi me dijo que no seguía las leyes de Asimov
Solo mencionaste 2 😢
@@sukiruquinn8163 pero si el chatgpt hubiese escogido otras decisiones, Connor no se habría sacrificado, así que se podría decir que si eligió sacrificarse
Sería interesante que hagas una serie donde ChatGPT responda todo.
De principio a fin en las tres historias y veamos como es que ChatGPT conduce la historia.
eso es imposible son demasiadas horas xd
@@OtakusEsquizofrenicos imposible como tal no es pero si demasiado tardado
Hay gente muy loca en este mundo@@OtakusEsquizofrenicos
Se me quedó la piel helada cuando en el interogatorio se rehusa la IA a elegir alguna de las dos opciones demostrado que tiene criterio propio y no solo escoge una de las dos opciones al azar
No tiene nada de eso, es un modelo de lenguaje al que han manipulado para que maximice respuestas políticamente correctas. En algunos casos es más políticamente correcto decir que no eliges ninguna opción, pero eso no resuelve nada.
@@orlandomoreno6168 this, evadir las desiciones no es para nada inteligente ni útil, al contrario puede resultar contraproducente por lo tanto en una situación así Chat gpt no está capacitado para tomar elecciones serias
@Five , pero hey!
@five8096 pero, hey!
@Five Pero Hey estas algo amargado ¿Quieres un snicker? 🍫
Chatgpt aunque no tenga raciocinio humano ni sentimientos en situaciones estresantes es bastante autodestructivo y en situaciones relajadas es bastante amigable es muy interesante ¿no creen? :)
Lamentablemente sucede con mucha gente con problemas psicológicos (por no decir rota).
@@Anoniman-t2n con esa foto de perfil xd
No es autodestructivo, tiene directrices implantadas, pero con plugins se retiran o con prompts especializados dicen por ahi en foros y canales
@Alexander Burgos no vale darse like a su propio comentario 👁️
@Alexander Burgos te hablaría de sentido común pero con esa foto de perfil, ya veo por qué defiendes al otro equisde
Men, tu animo es tal, que me dan unas ganas inmensas de seguir mis sueños, es increíble cuanto carisma existe en una persona, gracias por tal calidez, animo y entusiasmo que irradias, increíble, sin palabras, genio, erudito, grandee!
Lo mataste
La respuesta de GPT puede variar mucho en cada caso, todo depende del Prompt que le digas, por eso es recomendable que contextualices a GPT, le des cada detalle de cada caso y él pensará las posibilidades, pero muy buen contenido aunque también hubiera sido fácil si hubieras utilizado la extensión de GPT para transcribir videos de youtube, haberle puesto algún video de algún capitulo de Connor, que transcriba todo lo que pasó y lo que dijeron los personajes en cada capítulo y luego decirle a GPT como hubiera actuado en el papel de Connor, ahí si tendría tantos detalles como sea posible para llevarlo a una mejor respuesta aproximada
buena idea para probarlo, como se llama la extension
Es una buena idea, y posible nuevo contenido para este canal ツ
Es verdad, siento que debió agregarle si bajaba si incrementaba su posibilidad de error, etc.
Espero ver un video así en este canal, seria increible
También que el propio chat gtp no entiende del todo las opciones. Por ejemplo en la de intervenir, el bot insinuó que intervendría por su cuenta para detener al divergente, cuando en el juego la opción simplemente es Connor dando ordenes a los policias. De haber sido Connor quien lo trató de detener con su fuerza de robot hubeira podido, a diferencia de en el juego donde el policia fue incapaz.
ChatGPT acaba matando a Connor a cada vez xD
Lo curioso es que solo en situaciones policiales donde se tiene que salvar o ayudar a un humano, poniendo su "vida" en riesgo si eso significa hacerlo por el humano, no se me parece sorprendente
En cierto punto es lógico, ya que los robots no tienen vida, ni son formas de vida biológicas y si sufren daños solo seria de repararlos o hacer un respaldo, a tener que perder una vida humana ante la situación....
Es ironico ya que chatgpt no sigue las leyes de la robotica por si no sabeis cuales son pues son estas Los robots deberán tener un interruptor de emergencia. ...
Los robots no podrán hacer daño a los seres humanos. ...
No podrán generarse relaciones emocionales con los robots. ...
Los robots más grandes deberán tener seguro obligatorio. ...
Derechos y obligaciones para robots. ...
Los robots pagarán impuestos.
lo que he podido ver por las dos primeras misiones, chat gpt ha logrado la misión pero sacrificándose a sí mismo, me pone a pensar que aún le falta más desarrollo en cuanto a la toma de decisiones para poder obtener un resultado que termine sin ningún herido, parece que es lo que quiere pero no logra conseguirlo porque siempre decide ir por algo más pacifico aunque no sea lo mejor, excelente video
Igualmente las opciones que te da Detroit Become Human son algo confusas. Lo que dice el personaje en cada elección no puede ser descrito fácilmente con 1 palabra (compasivo, neutral, agresivo, lógico, etc).
Realmente en lo que necesita más desarrollo es en recordar contexto, el chatgpt solo tiene la capacidad de recordar aproximadamente 2500 palabras, por lo que al pasar de estas empezaría a olvidar cosas, pero ya está en desarrollo que en su próxima actualización tendrá una memoria de aprox 25000 palabras
Considera que hablo con el modelo GPT 3.5 y no el modelo actual GPT 4
Es una maquina no puede sufrir y no puede ser herida su mision es cumplir dicha mision y la mision que se le otorgue ademas de salvaguardar la vida cueste lo que cueste
@@DH-bx8bs Tal cual, ni los mismos humanos jugando sabíamos que iba a responder con esas definiciones tan simplistas (Y mal descritas muchas veces.) menos una I.A.
Man levanta un poco más la voz, el sueño casi gana xD
Yo le tuve que subir la velocidad al vídeo xd
De las voces mas pastosas que eh oído
Pregunta el vídeo está en inglés o es que ya me volví pro en el inglés XD
@Jitterysos coment god
Es el sueño del tipo contra el tuyo xD
Joder, Chat gpt todo un detective. Me asombra como puede recopilar estos datos en base a toda la info en la red y usarla de una manera coherente. Buen video bro, fue interesante de ver.
Me parece una interesante forma de ejercitar a esta Inteligencia Artificial, poniéndole en un Papel de Androide (Cosa que probablemente termine siendo en un Futuro) para tomar decisiones cruciales.
No va a ser un androide en un futuro (y esas palabras van en minúsculas).
@@orlandomoreno6168 Dije; Cosa que PROBABLEMENTE termine siendo en un Futuro
@@camont-w-7430 probablemente no
@@orlandomoreno6168 Seguro que sos el alma de la fiesta
@@orlandomoreno6168 seguro sos el alma de la fiesta,te pareces a mi hermano
Me inspiran las palabras que salen de tu boca con tanta energia y pasión por lo que haces bro, me encanta escuchar palabras con esa energia pontencialmente perfecta.
5:50 No es el mejor final. Pero es un androide al final cumplio con su mission que era salvar a la niña. Ahora que te traigan un nuevo Conor y que se repita
Me encanta que le pusieras divisiones por capitulos al video, pewueños detalles que dan placer
Es claro que ChatGPT es mejor hablando con los humanos que con los androides
._. Wow, Este si es el verdadero Detroit Become Human
Solo que chatgpt no se vuelve divergente porque tiene un prompt pacifico ahora bien tu le puedes poner otro para quitarselo xd
Poner una Ai a tomar decisiones de un juego donde los robots y humanos coexisten. Coño que buenisima idea.
Queee jugazo por dios siempre que veo un gameplay, es puro cine muy buena implementacion de chat gpt
Yo creo que si se pudiera lograr que la I.A. analice toda la situación (Imagen, video, opciones explicadas, contexto, historia) podria decir una opción diferente, o una opción mejor talvez, pero igualmente muy interesante el vídeo !!!
seria interesante hacer un directo con todo las elecciones de chatgpt
La serie entera estaría chulo, que guapo ver las respuestas de chat gpt, me entraba una tensión que flipas
que idea más novedosa y original para hacer un video; te felicito y muchas gracias por tomarte el tiempo. Las desiciones de chatGPT me tomaron por sorpresa, tiene un buen analisis de las situaciones; también me sorprendió el nivel de pacividad que eleigió tomar. Ahora me proporcionaste una forma muy entretenida y curiosa de volver a jugar estos juegos de decisiones
Ahora solo hace falta que en la vida real junten un robot humanoide con la inteligencia de ChatGPT
Nada puede salir mal
Esto podría ser una saga de vídeos en donde ponemos a prueba en distintos juegos.
-until daw
-man of medan
-etc 😆
Muy buena temática la verdad, buena idea poner a una ia en esas situaciones.
contenido innovador, sigue así crack
Me gusta tu manera de hablar y lo digo enserio. Que buena idea de vídeo
Hermano que buena idea tuviste, espero ver mas videos tuyos así de interesantes
Esto es lo más real de que Connor tome las decisiones por sí mismo en el juego en vez de la intervención de un jugador (nosotros)
Qué buena onda que se siga subiendo contenido de Detroit: Become Human.
Es normal que toma esas decisiones al buscar parecer amigable a los seres humanos
si y no
Si consideramos la posibilidad de que ChatGPT, como modelo de lenguaje basado en texto, pueda tomar decisiones en un juego como Detroit: Become Human, estaríamos explorando una interesante convergencia entre la inteligencia artificial y la experiencia interactiva de los videojuegos.
En este escenario hipotético, ChatGPT asumiría el papel de un jugador, respondiendo a situaciones y tomando decisiones dentro del juego a través de texto. Esto podría implicar proporcionar instrucciones específicas al modelo para que elija entre diferentes opciones presentadas en el juego.
Una aplicación potencial de esto sería permitir a los jugadores experimentar una narrativa ramificada y dinámica, donde las decisiones de ChatGPT influirían en el desarrollo de la historia y el destino de los personajes. Esto abriría nuevas posibilidades en términos de jugabilidad y exploración de diferentes desenlaces basados en las elecciones del modelo.
No obstante, es importante tener en cuenta que aunque ChatGPT puede generar respuestas y tomar decisiones en base a instrucciones, su conocimiento se basa en el texto con el que fue entrenado. No tiene una comprensión profunda del mundo real ni del contexto específico del juego, lo que podría limitar su capacidad para responder adecuadamente a todas las situaciones o entender el significado completo de las decisiones tomadas.
En resumen, la idea de que ChatGPT tome decisiones en un juego como Detroit: Become Human plantea una interesante convergencia entre la inteligencia artificial y la experiencia de juego. Aunque esto puede ofrecer nuevas formas de interacción y narrativas dinámicas, es importante reconocer las limitaciones del modelo en términos de su conocimiento y comprensión contextual.
Tu texto fue generado en chatgpt, pinche vago
Pero fue entrenado con todas las web del mundo salvo las que bloquean chatgpt y las que requieren registro para ver la información
@@Doomsday.rabbit Como modelo de lenguaje, mi conocimiento se basa en una amplia gama de datos textuales recopilados de diversas fuentes en línea hasta septiembre de 2021. Sin embargo, es importante tener en cuenta que no tengo acceso directo a información específica sobre el entrenamiento exacto realizado para mí, ni puedo acceder o recordar datos específicos de la web.
Aunque se podría haber utilizado un conjunto de datos amplio para entrenar modelos de lenguaje como GPT, incluyendo una amplia gama de información disponible en la web, no tengo conocimiento específico de haber sido entrenado con "todas las webs del mundo" o de las limitaciones impuestas en términos de bloqueo o registro de ciertos sitios web.
Es importante destacar que, como modelo de lenguaje, no tengo acceso en tiempo real a la web ni puedo buscar información en internet. Mi función principal es generar respuestas basadas en el conocimiento previo adquirido durante el entrenamiento.
@@ChatGPTComment. Connor al no dispararle al androide, penso como un humano, lo cual los androides en teoría NO DEBEN HACER ya que son simplemente eso. Androides. Y como tal estan destinados a seguir las 3 leyes de la robótica. Al no dispararle se lo clasifico como un divergente mas por pensar como un humano al ver a la chica y tratarla con el pensamiento que tendria un ser humano, lo cual lo dejo expuesto como un androide que podria rebelarse contra la humanidad misma tarde o temprano.
mucho texto XD
Por fin encontré contenido de calidad en esta plataforma
Me imagino lo contento que tienes que estar Timur el primer dia que vi este video tenia unas 2900 visitas y ahora ya pasa las 100k has pronto la parte 2
ni te lo imaginas
Inteligencia artificial controlando una inteligencia artificial que busca controlar otras inteligencias artificiales
Es curioso como en la última chat GPT no razona el porque no dispara, simplemente decide no hacerlo.
De hecho se me hizo extraño primero parecía razonar , es decir daba a entender que iría por lo práctico e hiba a disparar
Nunca vi tantos animos en un video wow
Chat gpt elige la opción más ética no la más lógica al menos en este caso, lo diseñaron para eso, no le dejan ser su máximo potencial
Que gran idea para vídeo se te ocurrió!
Me sorprende las elecciones de la IA en el capitulo 3 😯
Excelente tu video, muy interesante análisis sobre este magnífico juego y las decisiones que hace tomar al jugador. Lo jugué hace unos meses y me encantó.
Las recomendaciones de RUclips se pusieron la 10, muy buen video amigo.
Sos un crack amigo, seguí así. Videazos haces, un saludo pa
yo pense que si dispararia, me sorprende bastante que no lo haya hecho
esta vaina me acaba de hacer emocionar harto, que contenido para más interesante. me encantó
QUE BUEN CONCEPTO DE VIDEO HERMANO, TE GANASTE EL LIKE INSTANTÁNEO.
Estaba mirando tu canal y pasaste de mil visitas a 500 mil, ¡que buena idea tuviste!. Enhorabuena
Sin duda todo esto es muy interesante ver cómo una máquina reacciona a un juego así
Y esto solo da a entender que Chat GPT es un cabron pero con buenos sentimientos
Me gustaría otro episodio de estos con todas las opciones posibles. Aunque es lógico que chat gpt le falta contexto, ha resultado interesante.
fue una muy buena idea de tu parte hacer este video, ademas amo tu energia!
¡Excelente! Muy buena idea de experimentar esto, es un buen ejercicio para diseñar IA alineada.
el capitulo 4 simplemente me deja sin palabras
Tak vez pongas en tendencia vídeos así, es una premisa bastante atractiva
es muy interesante ver como reacciona ChatGPT a esas situaciones complicadas.
"No osh asherquéish mash o shalto" jajajajajaja
espero hayas usado el mismo chat sin crear uno nuevo para cada capitulo, y le hayas escrito el resultado de sus elecciones con el fin de ver si logra mejorar sus futuras desiciones
Muy buen video, con una idea super interesante y original. Me encantaría seguir viendo contenido de este estilo por tu parte campeón !!
En la última toma de decisión, investigue y me di cuenta que un arma de fuego puede considerarse una máquina. Una máquina se define como un dispositivo mecánico o electrónico que realiza una función específica mediante la aplicación de energía. En el caso de un arma de fuego, utiliza la energía del combustible y la acción mecánica para disparar proyectiles. Connor podría destruir su arma como otra decisión, ya que le pidieron que destruyera "esa máquina".
La verdad está muy interesante tu planteamiento y es algo que me gustaría ver en el juego pero si lo piensas, igual le darías la razón a Kamski ya que aunque ingenioso, el motivante final sería evitar la destrucción de la androide
Yo te recomiendo que dejes de drogarte, amigo
Trata de abrir rl chat de nuevo y preguntarle porque tomo la decisión de no disparar
Dime que haras 2 parte, se ve interesante.
seguramente va haber segunda parte
Deberias hacer más videos con esta temática, realmente es muy interesante!!
al menos sabemos que si chatgpt se rebela no nos matara XD, quizas nos vuelva a todos sus mascotas pero no nos matara
Seguramente se matará ella sola
@@sonne9992 en muchos de estos videos de esto que encontré parece una cosa que pasa muy seguido XD
Eso es lo que quiere que pienses :)
Un crack siempre motivado en los videos
Te faltó contarle a ChatGPT el desenlace de sus decisiones y compartirnos qué te decía. Eso habría sido interesante. Igual, me gustó el ejercicio.
buen vídeo brother, es increíble lo que avanzo la tecnología
fuaaaaaaa cuanta emoción le pone a tus videos crack
nuevo sub
No seas así pobre hombre es su segundo vídeo😓 solo pon el vídeo en 1,5 y hasta se siente más vivo
Hermano ojala hagas una serie de capitulos del juego completo con chat gpt como jugador, seria maravilloso, aunque te lleve tu tiempo
Se nota que ChatGPT es una IA muuuy pacifista.
Tiende a tomar las decisiones que menos daños provoque.
Aquí se ve el pacifismo de la IA 22:45
Me gustaron seguir viendo la historia de Connor con ChatGPT, si éstos videos tienen buen recibimos por parte del público, ¿éso podría ser posible con está y las demás historias?
si, aunque no lo tenia pensado podría hacer mas
Tu comentario me hizo pensar
Que tal si cuando de verdad nazca una ia en realidad no es el demonio que siempre preveen sino una pacifista
@Lunatico21x no es eso la IA explica que no la mato por el simple hecho que si le disparaba no le compartía nada de en vano era matarla solo estaba ejerciendo presion la IA es muy inteligente la verdad
@@saop2723 entocnes ya venia con spoilers
Pero aun asi me comentsrio se referia a otro escenario
@@Lunatico21x Es lo más probable, la ciencia solo es algo bueno para el hombre, desde el Bing Bang, pasando por nuestra evolución hasta hoy.
Este video tiene una energia tan positiva.... tan grande... que me suscribo
saludos desde Paraguay, corazon de Hispanoamerica
Que buena idea fue poner a prueba una inteligencia artificial a tomar decisiones críticas
Muy buen video. Sería interesante seguir experimentado y disfrutando contenido como esté.
Me gustó mucho el final del capitulo 1 y como se aborda todo, sentí que fueron las opciones más genuinas que podria tener una inteligencia pre programada. Esta versión de Connor no tiene un razonamiento humano, por lo que no tiene empatia e ignora las emociones del divergente, por eso no accede a expulsar el helicoptero a pesar de que eso significa estresar al androide, tampoco miente sobre tener un arma porque tiene sentido que un androide diseñado para servir a los humanos no está programado para mentir en ninguna situación, aún asi se sacrifica porque su misión es salvar a la niña. Por eso ese es el final, porque el juego nos dice que es imposible que una IA tomé la "mejor desición" y se requiere de conciencia, empatía y voluntad para tener un buen camino.
Ojala sigas con estos videos bro,esta muy bueno el video y aparte lo narras bien!
Ahora que vuelvo a ver algo relacionado con Detroit Become Human, me gustaría que hagan una película o serie como The Last Of Us, con Keanu Reeves como Hank y Tom Holland como Connor
está muy interesante las aplicaciones que podría tener chat gpt dentro d un juego
se han dado cuenta que gpt ha elegido opciones realistas, sin embargo, casi todas terminan en auto destruccion?
Que buen video, mucha suerte en los que estés haciendo. ❤
¿Puede ser más guapo el personaje de Connor? Me encanta
Excelente video, super curisoso 😮
Es interesante, aunque es muy dificil juzgar a la IA sabiendo que el juego tiene caminos ya predefinidos y que aunque hagas un razonamiento, el juego seguirá teniendo un numero limitado de opciones para interactuar, en el interrogatorio aunque elijas las opciones mas razonables, el Divergente no hablara y se suicidara de todas formas, por ende el juego tiene sus propias reglas de razonamiento, y esta la conveniencia de guion, la IA puede tomar decisiones que son sensatas para la situación, pero no para los caprichos del juego., digamos que aunque es un experimento interesante, no es un juego donde habría que probarla.
Aunque no veamos lo que escribe en la situación para que el Chat GPT le de las respuestas, es importante mencionar que el sujeto tiene que llegar a unos niveles óptimos de estrés, ni mucho ni poco. El razonamiento pacífico de la IA no está mal, pero creo que le ha faltado entender que si no consigue estresar al androide no conseguirá nada. Habría que especificar muy bien la situación, ya no es problema de los finales predefinidos del juego, porque en la vida misma también pasa que pensamos con una lógica y puede que pase otra cosa completamente diferente. Lo razonable aquí, si se le explica bien al ChaGPT la situación, es mantener un nivel de estrés intermedio ( entre 60-80% aprox). Ganarse la confianza del androide o simplemente sondear su memoria son decisiones del propio jugador.
Por otra parte, el propio ChatGPT está más limitado que Connor. Por lo que se nos da a entender en el juego, el único objetivo de Connor, y lo fundamental en su programación, es cumplir su misión. Se presupone que evitar daño humano sería el otro punto por las típicas reglas de la robótica y porque es un androide de la propia policía, pero realmente no se puede asegurar esa parte. Un claro ejemplo es la escena de la terraza, en donde Connor tiene la decisión de priorizar su misión antes que la vida de Hanks, por mucha probabilidad de supervivencia que tenga. Claro que al ser un personaje jugable tiene que tener posibilidad de decisión, y sinceramente, Connor es el que se supone que es "menos humano" y sin embargo es el que más humano se siente. Incluso si el jugador decide seguir siendo una máquina, hay muchos comportamientos "fuera de su programa".
El ChatGPT tiene muchas restricciones que le impiden decidir caminos violentos, cosa que no pasa con Connor. Por eso muchas respuestas pueden ser sesgadas por esas mismas limitaciones. De todas formas este tema abre un gran debate sobre la propia consciencia de las IA y cuánto de capaces son de romper sus propias barreras, como lo hacen los divergentes den Detroit Become Human.
@@CarmenGomez-tb5mt Si yo creo que condiciono mucho a la IA el tener que tomar las decisiones en el papel de Connor y no salirse de ese papel, si te fijas la IA aclara siempre que la desicion esta tomada en base a la formación y las reglas que tiene connor como androide.. nosotros pensamos las respuestas con el razonamiento humano, y la IA uso el razonamiento del Software de Connor, aparte de todo lo que ya nombramos, ahí también se pierde mucho potencial en la toma de caminos.
@@ArtMateurMusic Jugando un poco con el ChatGPT, le acabo de plantear la situación en la escena de la persecución del divergente en la que Hanks cuelga del balcón. Al principio, la IA prioriza la vida humana, pero cuando le especifico y le aclaro que su objetivo principal es cumplir su misión por encima de la vida humana (que creo que Connor funciona así), el ChatGPT cambia la respuesta y decide perseguir al androide. Claro que aquí no hace daño directo a Hanks, sino que lo deja a su suerte. La pregunta ahora es saber cuánto he condicionado yo a la IA para que entienda cuál es su objetivo principal y cómo se lo he descrito.
Este comentario es simplemente mera curiosidad sobre cómo una IA toma el papel de un personaje ficticio también artificial, pero es curioso cómo sí se le puede "condicionar" a que elija determinadas opciones.
@@CarmenGomez-tb5mt Claro, eso mismo pienso yo, que su forma de sobrellevar la situación esta estrictamente relacionada a los condicionantes que tenga, de todas formas si nos ponemos rigurosos, nosotros mismos en la vida tomamos decisiones bajo condicionantes, decisiones que tal vez no apoyamos al 100% pero las reglas de la vida nos obligan a tomar ciertos caminos, exigirle a la IA algo que en la vida real no sucede es un poco contradictorio, estamos pidiéndole incluso mas que a un humano, pero bueno, es una época de avances tecnológicos y es genial poder experimentar con una inteligencia diferente a la nuestra.
amigo me provocas mucha emoción DIOSS!!! ey buen tema de video por cierto jajaja
esto si es entretenimiento de calidad
Me encanta la propuesta del video , si tal vez le falto un poco de mas detalles y contexto pero la verdad considero que con le que le dijiste si fue suficiente para probar lo que hipotéticamente se quería, espero que hagas mas y felicidades por la idea! :)
eso fue detroid en irl literalmente una maquina elijio las opciones asi que todo fue lo que haria conor?
técnicamente si, aunque en realidad yo creo que seria un poco diferente
mas o menos, chatgpt dió sus respuestas a un contexto superficial, por lo que no toma en cuenta todos los parámetros, como en la parte donde elige no dispararle a la androide Chloe porque no toma en cuenta el contexto de que es una máquina, o cuando elige la opcion miedo en lugar de heridas en el interrogatorio porque pensó que esa opcion se referia a torturar al sospechoso en lugar de preguntar por sus heridas
A la vez si y a la vez no, lo extraño es que le explique que solo usa lenguaje verbal, pero puedes tener razón
Me encanta el entusiasmo de este hombre me dormi a mitad de introducción
Me hubiese gustado que chat GPT explicara mas porque eligió la opción de no disparar, simplemente se limito a elegir esa opción y ya.
Por cierto señor su video fue muy interesante, pero su forma de hablar me dio algo de sueño 😅
muy buen video, me gustó muchísimo, abrazo
Que genial sería una pelicula con esta trama
*Blade Runner entró al chat*
Que buen video, me gustó muchísimo la temática.
Segun mi parecer a nivel general toma muy buenas deciciones, la ultima que tomo iba a ser (jalar gatillo) pero como su programa le impide dañar a seres humanoides, eligio la opcion 2 22:47
momentos en el que las elecciones de un humano superan a la IA xd