¿Cómo discrimina la inteligencia artificial? ¿Quienes son sus víctimas?

Поделиться
HTML-код
  • Опубликовано: 24 янв 2025

Комментарии • 1,1 тыс.

  • @hifrogeno409
    @hifrogeno409 3 года назад +174

    Finalmente Una MAQUINA FUNADA

    • @jonwich...9597
      @jonwich...9597 3 года назад +5

      Si jajaj aparte del hombre a alguien tenian que darle

    • @nobodyhuman7947
      @nobodyhuman7947 3 года назад +3

      Próximamente funan a Hittler por racista 😠👊

    • @samuelmorales6542
      @samuelmorales6542 3 года назад +1

      Verga, se cumplió la profesia

    • @oscaralvarez8530
      @oscaralvarez8530 3 года назад

      8:18 *LEGO*

    • @wex360s5
      @wex360s5 3 года назад +5

      @@nobodyhuman7947 de hecho en su epoca lo funaron tanto que se mato jsjsjs

  • @Cronoro
    @Cronoro 3 года назад +380

    Muchas gracias por tan fascinante documental 🤩 ya me estaba empezando a indignar por no encontrar algo de que ofenderme hoy 🤩

    • @pm3711
      @pm3711 3 года назад +14

      Ajajajajajaja

    • @sergiogalindo6148
      @sergiogalindo6148 3 года назад +63

      Cuando los terminators nos exterminen solo quedaran los africanos porque el software no los reconocerá.
      Y los africanos heredaran la tierra....

    • @Samthahoff
      @Samthahoff 3 года назад +7

      @@sergiogalindo6148 😂🤣🤣🤣🤣🤣 no seas mamón

    • @JeamLeppard
      @JeamLeppard 3 года назад +21

      Ofenderse por todo... tipico de esta era 🤗

    • @HistoriaenCeluloide
      @HistoriaenCeluloide 3 года назад +17

      Un titular como este suena a chiste, pero si un portal como DW lo publica, significa que los niveles han caído muy bajo

  • @starvostokcres
    @starvostokcres 3 года назад +300

    Esto ya se veía venir, como el ejemplo que a veces pongo, si escribo en chino, envio audios en chino y hablo con chinos, el algoritmo creera que soy chino, cuando en realidad solo quiero aprender chino

    • @claptonelyarnorthon4912
      @claptonelyarnorthon4912 3 года назад +49

      Yo lo hago en portugués, español, inglés y francés. Y el estúpido algoritmo me cree hindú🤣 está drogo el algoritmo

    • @sofiaalejandraromero1693
      @sofiaalejandraromero1693 3 года назад +27

      Me pasa lo mismo, estoy aprendiendo ruso y ahora me salta todo el tiempo publicidades de empresas rusas.

    • @starvostokcres
      @starvostokcres 3 года назад

      @@claptonelyarnorthon4912 Te sorprenderías de cuantos errores así hay en realidad porque crees que hay vídeos de youtube que sin ser permitidos siguen ahí mientras que los que estan en inglés no 🤣

    • @starvostokcres
      @starvostokcres 3 года назад +2

      @@sofiaalejandraromero1693 Justo hoy en la mañana entre a un canal de youtube de carros y me salio un anuncio de seguros para carros 🤣

    • @angelicidio
      @angelicidio 3 года назад +7

      yo hablo en inglés y veo videos en inglés y m siguen apareciendo cosas en español lol

  • @elcovid1272
    @elcovid1272 3 года назад +127

    Jajaja si dio risa el primer ejemplo que dieron jajaja

    • @brayanpalma1672
      @brayanpalma1672 3 года назад +5

      "Eso es racista...", ya sabes lo siguiente....

    • @elcovid1272
      @elcovid1272 3 года назад +8

      Jajaja si, pero igual me rei bien agusto jajaja crei que simplemente la inteligencia artificial no iba a reconocer la mano por ser negra jajaja

    • @starvostokcres
      @starvostokcres 3 года назад +3

      Es que ya se acostumbro 🤣

    • @HistoriaenCeluloide
      @HistoriaenCeluloide 3 года назад +6

      Un titular como este suena a chiste, pero si un portal como DW lo publica, significa que los niveles han caído muy bajo

    • @anonimus2990
      @anonimus2990 3 года назад

      @@HistoriaenCeluloide concuerdo contigo pero no hagas copy pega en todos los comentarios

  • @aidep9653
    @aidep9653 3 года назад +56

    Por fin un video de DW con los comentarios activados... pero no se que decir....uuuh

    • @narumichi821
      @narumichi821 3 года назад +1

      X2

    • @dan96mv
      @dan96mv 3 года назад +1

      X3

    • @mentrion1
      @mentrion1 3 года назад

      Q es una tonteria? Una MAQUINA RACISTA? Porque fue construida x blancos? 🖖👽

  • @joseeliascarmonabello9813
    @joseeliascarmonabello9813 3 года назад +375

    Si Pedrito tiene 4 manzanas y Pablito le roba 3, ¿de qué color es Pablito?, este chiste me lo contó Alexa. XD

  • @piedramultiaristas8573
    @piedramultiaristas8573 3 года назад +138

    Porque no se les vigila así a los políticos si estadiscamente son los que mas roban?

    • @PRODUCCIONESJAIMEFT
      @PRODUCCIONESJAIMEFT 3 года назад +9

      No digas tonterias, son ellos mismos quienes los implementan, es totalmente ilógico que lo usen en su contra genio.

    • @arm4013
      @arm4013 3 года назад +1

      por que ellos pagan, con nuestro dinero pero ellos pagan así que ellos mandan.

    • @romardu8587
      @romardu8587 3 года назад +2

      Porque a ellos y su élite corrupta les sirven éstas herramientas

    • @pacharrini8462
      @pacharrini8462 3 года назад

      Porque será ellos quienes lo manejan? Dah

    • @rmramirezc
      @rmramirezc 3 года назад +2

      Los políticos solo son el reflejo de la sociedad a la que representan.

  • @fysi9397
    @fysi9397 3 года назад +128

    La inteligencia artificial solo es una extensión de lo que pensamos, no es intencional. Pero revela quienes somos realmente

    • @starvostokcres
      @starvostokcres 3 года назад +3

      AL FIN ALGUIEN LO DIJO

    • @CrimsonKing666
      @CrimsonKing666 3 года назад +12

      Asi no funciona una red neuronal, es algo mas primitivo que lo que te imaginas, al ultimo son las mismas bases de calculo que te enseñaron en la escuela, no es tan moderno como crees y muchas cosas han sido usadas en ingenieria por decadas. La diferencia es que aun estamos en pañales, hay muchas cosas que son nuevas pero no se han utilizado comercialmente para emcontrarle fallas. Por eso debe de probarse muy bien por que a una red neuronal la entrenas con datos y si estos estan mal la red neuronal va tener muchas fallas, lo del color de piel es por falta de datos y por que ciertas arquitecturas de redes neuronales son muy malas para detectar formas, estas son mejores para texturas..

    • @gersonp4606
      @gersonp4606 3 года назад

      What y esa "extensión" como se programa ?

    • @elyyo2136
      @elyyo2136 3 года назад

      Juajuaju

    • @casicreativo1129
      @casicreativo1129 3 года назад

      @@gersonp4606 usando el cerebro y entender lo que se quizo decir

  • @microcraftcienciologo9329
    @microcraftcienciologo9329 3 года назад +37

    Ya entiendo porque casi siempre bloquean los comentarios, probablemente no les gusta que se burlen de ellos cada que dicen una tontería

    • @Alpha-zg8zy
      @Alpha-zg8zy 3 года назад

      XDDDD

    • @مرحباعاهرة
      @مرحباعاهرة 3 года назад +4

      Jajajajaj de verdad piensas que la credibilidad de una periodística alemana depende de la opinión cómica de "microcraft cienciólogo". Tan siquiera ¿entiendes todo el contexto racista, sociológico, e incluso tu que eres latino , el como te puede afectar esto?

  • @icebear8773
    @icebear8773 3 года назад +96

    sinceramente este reportaje me parece un absurdo de manipulación, ¿cuantas veces no se ha equivocado al revés de relacionar la mano blanca con la pistola y la negra con otra cosa? ¿una tipa tenía problemas con UN software de reconocimiento cuando hay cientos de otros software dando vueltas en redes sociales como el que te cambiaba de sexo en facebook y funciona perfectamente con cualquier tipo de piel? que el problema son las camaras hechas por "HOMBRES BLANCOS" (solo les faltó decir heterosexuales) cuando hay un montón de modelos y actores negros que se ven espectaculares a través de las camáras, no sé si esa señora conocerá las cámaras de los últimso 2 siglos pero no se diseñan para que los "hombres blancos" se vean bien, se diseñan pensando en captar con la mayor fidelidad el mayor espectro de colores posibles y con variedad de condiciones de luz... solomente agarraron un montón de sucesos puntuales y quieren hacerlos pasar como algo sistemático.

    • @axeltrance
      @axeltrance 3 года назад +4

      bien

    • @jonatanmercadocortegana5496
      @jonatanmercadocortegana5496 3 года назад +8

      El análisis más estúpido que he leído hoy

    • @MessalaSeverus
      @MessalaSeverus 3 года назад +4

      @@jonatanmercadocortegana5496 análisis de quién?

    • @Leo-rl3ui
      @Leo-rl3ui 3 года назад +6

      @Dhemmlerf Esta hablando del espectro de luz infrarrojo una falla en el sensor que llaman camara debido a que solo detecta la luz infraroja reflejada por la piel blanca no es una camara con amplio espectro ._. y sí es un caso partícular que seguramente este ya solucionado

    • @uveantonio4094
      @uveantonio4094 3 года назад +2

      basado

  • @charlycharly933
    @charlycharly933 3 года назад +85

    Jsjjajajaj una pistola. C mamó

    • @SpaceDone1994
      @SpaceDone1994 3 года назад +11

      Solución, eliminar la parabra gun

    • @qufman2108
      @qufman2108 3 года назад +15

      Lo mas gracioso esque cuando pintaron la mano la pintaron con Paint y el adgoritmo haaa es un Ario entonces son unos prismáticos.

    • @letras9920
      @letras9920 3 года назад +1

      Jaja xd

    • @universo25.63
      @universo25.63 3 года назад +14

      Era obvio
      La mayoría de asaltos a mano armada don por negros
      La IA solo usa matematicas eficientes

    • @Ser.jes98
      @Ser.jes98 3 года назад +5

      Cuando una mano negra agarra un objeto con esas características lo más común es que sea una pistola, no es culpa de la inteligencia artificial.

  • @Daroshin
    @Daroshin 3 года назад +78

    Eso no es racismo, es un algoritmo mal entrenado, con una solución simple, hablar que el hombre blanco tiene la culpa es racista, si en tu país casi no existe población de otra etnia, es seguro que la entrenadas para las mayorías. Las mayorías siempre van a tener la ventaja es algo democrático y casi biológico

    • @kkkaaa5967
      @kkkaaa5967 3 года назад +5

      africanos,musulmanes y otras etnias migran masivamente actualmente a europa y desde siempre a usa asi que pues si bien quiza ahora se encuentren mas blancos que negros eso puede ser muy diferente en unos años con una europa cuya poblacion autoctona esta cada vez mas envejecida

    • @starvostokcres
      @starvostokcres 3 года назад +2

      @@kkkaaa5967 Sí, pero no todos estan en domde se brindan los filtros ni menos quierem brindar sus datos, tienen más detalles que eso añadiendo que en ciertos lugares es casi imposible encontrarlos que en otros, los lugares son variables incluso dentro de un mismo país

    • @xaviwarrior1
      @xaviwarrior1 3 года назад

      Ahhh, basado en la tirania de las mayorías, de la gran masa "culta" jaa

    • @daniels35
      @daniels35 3 года назад

      Correcto

    • @Daroshin
      @Daroshin 3 года назад +7

      Mi comentario va más en relación que se exagera con el término racismo, osea tengo un gato blanco y ya soy racista. Los algoritmos de IA no son perfectos y tienden a confundirse siempre, y si están más entrenados van a tener un sesgo hacia un lado... Es cosa de trabajar y entrenarlo mejor, con fotos parecidas de un plátano dependiendo de la luz puede decir que es una pistola 😅, es muy común... pero no es racista por qué el plátano sea amarillo o café...😅, Es cosa de hablar con un asistente de voz y vas a ver que no te entiende bien 😂, "quiero una tasa" a "quiere una papa" no una tasa, así una rana...😅

  • @gabrielchavezbustillos9196
    @gabrielchavezbustillos9196 3 года назад +66

    No me gusta la censura en los comentarios de DW.

    • @marytaflowers9902
      @marytaflowers9902 3 года назад +3

      ¿ Como te das cuenta que hay censura en los comentarios ❓ supuestamente DW está en contra . Bueno eso siempre creí.

    • @maoluz882
      @maoluz882 3 года назад +10

      Y no haz pensado que quizá quien borra los comentarios es youtube

    • @HomoDuxAltiens
      @HomoDuxAltiens 3 года назад +12

      Son peores que los de RT

    • @andresrubio1394
      @andresrubio1394 3 года назад +8

      En algunos videos no dejan poner comentarios.

    • @jost1101
      @jost1101 3 года назад +10

      *Me censuran mi comentario racista/homofóbico*
      Los racistas/homofóbicos: “P1ncHES medios, d0nde está mi l1bertAd de Expresión??”

  • @ericguzman5637
    @ericguzman5637 3 года назад +15

    Tremendamente interesante el reportaje 👌 damos por sentado que los sistemas funcionarán bien, pero depende mucho de cómo se diseñen

  • @venosaa634
    @venosaa634 3 года назад +18

    Entonces todos tenemos que ser como robots? Todos las personas iguales de color altura cabello? No podemos pensar discernir tener diferencias? O como? Claro que debe de haber diferencia todos somos diferentes afortunadamente

    • @kkkaaa5967
      @kkkaaa5967 3 года назад +2

      quien dijo eso? supongo que le estabas respondiendo a alguien que borro su comentario sino no tiene el menor sentido porque nadie esta hablando de eso

    • @luisml7557
      @luisml7557 3 года назад +1

      Es increíble como malinterpretas todo el video

    • @martasosa5973
      @martasosa5973 3 года назад +2

      Yo lo que entiendo es que te refieres a que hablar de diferencias anatomicas y culturales, que definitivamente existen, ahora es considerado racismo, si es eso opino como tu, no se por que no se puede decir que alguien tiene rasgos orientales, otro europeo y alguien mas de nativo americano....ya nada es "politicamente correcto", tenemos que hacer de cuenta que no existen diferencias....que tonteria

  • @xcamaradefotos3062
    @xcamaradefotos3062 3 года назад +2

    La IA no discrimina porque no tiene consciencia ni razona, tampoco tiene mente ni siente sensaciones, ni emociones, ni sentimientos!!!

  • @tammyharleyquinn8670
    @tammyharleyquinn8670 3 года назад +61

    Todo es racista hasta la luz por que es clara🤦🏻‍♀️

    • @JeamLeppard
      @JeamLeppard 3 года назад +6

      Hay que empezar a comprar luces negras para poder ver en la oscuridad a los negros xD

    • @tammyharleyquinn8670
      @tammyharleyquinn8670 3 года назад

      @@JeamLeppard 😂

    • @JeamLeppard
      @JeamLeppard 3 года назад +1

      @アーシュラ・カリスティス y yo azul. Te vas a ofender? Yo soy mas minoria que vos, solo existimos los Blue Man Group y yo

    • @unusuariocongoogles
      @unusuariocongoogles 3 года назад +2

      @@JeamLeppard yo me autopercibo de color platino con incrustaciones de diamantes brillosos y eso es aun más racista para mi, jake mate

    • @JeamLeppard
      @JeamLeppard 3 года назад +3

      @@unusuariocongoogles ahh sos de la alta sociedad vos, seguro vivis bien, yo tengo que buscar que ropa combina con mi azul cobalto :(

  • @bryamvargas1371
    @bryamvargas1371 3 года назад +67

    Básicamente si nuestra creación incluye nuestras convicciones, entonces va a se igual que nosotros los humanos

    • @cronosmartinez1072
      @cronosmartinez1072 3 года назад +12

      es un programa informatico de 1 y 0 por mas inteligencia artificial que le digan que es, NO TIENEN COCEPCION DE VIDA, mucho menos de racismo. a lo mucho son errores en el codigo
      pero no racismo por dios

    • @jpalma9361
      @jpalma9361 3 года назад +7

      La ia no da opiniones, se basa en estadistica, algoritmos

    • @bryamvargas1371
      @bryamvargas1371 3 года назад +6

      @@cronosmartinez1072 vos has estudiado programación o inteligencia artificial?

    • @abstracto2137
      @abstracto2137 3 года назад +1

      Es difícil limitar cualquier tipo de inteligencia, incluso podría ser imposible. tarde o temprano una iA convergerá o "colapsara" en desarrollar una discriminazion igual a la que tendría nuestra concepción de Dios, básicamente un ser ultra conciente que solo pone las manos para que no caigan las cosas de una mesa, con nula intervención. Pero claro antes de que eso ocurra puede "colapsar" en algo que tire cosas de la mesa.

    • @sabin97
      @sabin97 3 года назад +7

      @@bryamvargas1371
      yo si he estudiado ambas cosas.
      poseo un bachillerato en ingenieria de computadoras y una maestria en ciencias de computos.
      en el campo de la inteligencia artificial hay un dicho:
      "la inteligencia artificial es a la inteligencia, lo que las flores plasticas son a las flores"
      o sea solo apariencia y nada de sustancia.
      a lo que llamamos inteligencia artificial a fin de cuentas es solo estadisticas y heuristicos.
      solo en las peliculas se ve eso de que sean capaces de pensar.
      si no puedes pensar, no puedes ser racista.
      todas esas diferencias y el "discrimen" de la inteligencia artificial se debe a optica. si tu piel es mas oscura reflejara menos luz, y eso dificulta que una inteligencia artificial reconozca tu cara.
      no es racismo. es fisica. literalmente el comportamiento de la luz.
      has visto esas fotos donde sale alguien con piel bien bien oscura y es de noche y en la foto solo se le ven los dientes?
      eso tampoco es racismo, es fisica.

  • @carlos_jrivero1991
    @carlos_jrivero1991 3 года назад +30

    "El hombre blanco" creo que el reportaje también es discriminatorio.

  • @carlosbedoya8935
    @carlosbedoya8935 3 года назад +7

    El problema es que nos cuesta aceptar que la inteligencia artificial no es "polìticamente correcta", no es emocional sino sencillamente objetiva, hemos manipulado la información de manera a que nos haga sentir más cómodos, y ahora queremos manipular la inteligencia artificial .Yuval Harari nos advierte que en poco la inteligencia artificial comenzará a programarse a sí misma... y no esperemos que sea emocional, será simplemente objetiva. Y por lo tanto tremendamente injusta para los parámetros humanos.

    • @lucaswsvs117
      @lucaswsvs117 3 года назад +1

      al contrario, será justa, y ese es el problema que cada uno tendra lo que se merece

    • @franklin4dedos
      @franklin4dedos 3 года назад +2

      Estás equivocado. La IA artificial procesa datos millones de veces más rápido que un humano y a pesar de eso puede estar en un error. Por ejemplo hay casos en dónde la IA no puede notar la diferencia entre unas dunas de desierto y un par de tetas. Y tener una inteligencia artificial que decida sobre temas de derechos o facilitarle la vida a una persona por ser blanca y que al negro lo aparte, eso es una mierda. Prácticamente te sentencia el día que naciste.

    • @lucaswsvs117
      @lucaswsvs117 3 года назад +2

      @@franklin4dedos la AI se programa en base a estadisticas no en base a sesgos subjetivos.

    • @victorhugoeh974
      @victorhugoeh974 3 года назад +2

      @@lucaswsvs117 Pero la estadística con la que se alimenta la IA sí puede estar sesgada. Si se le alimenta con datos falsos, muestreos mal hechos, etc., el resultado también será sesgado.

    • @nvozang3193
      @nvozang3193 Год назад

      Objetivo no es injusto. La IA no es objetiva porque procede de unos humanos que en general son racistas.

  • @camilosanchez1754
    @camilosanchez1754 3 года назад +13

    Lo de tecnología racista es victimismo total. Lo que más les interesa a los dueños de esas compañías es indexar a cada individuo para ofrecerlo como mercadería, independiente de la raza. Lo que sucede es que la tecnología todavía es imperfecta. Pero yo no se hasta que punto eso pueda ser algo bueno

    • @starvostokcres
      @starvostokcres 3 года назад

      Sí, ya se esta volviendo muy hostigante, pero también habra gente que quiera usar ese poder o información y hara lo que sea para conseguirla, hay que estar atentos a ambos partes

  • @omargarcialechuga7205
    @omargarcialechuga7205 3 года назад +72

    En México: Persona blanca corre, tiene prisa.
    Persona morena corre, se acaba de robar algo.

    • @charlycharly933
      @charlycharly933 3 года назад +21

      Y termina siendo cierto :v

    • @omargarcialechuga7205
      @omargarcialechuga7205 3 года назад +4

      @@charlycharly933 de hecho pararon a un amigo por eso :(

    • @charlycharly933
      @charlycharly933 3 года назад +21

      Uy. Pobrecito. Lo mataron? Meh. No creo. A llorar a otro lado. Yo soy blanco y también me pararon por estar frente a un banco con capucha. Le di mis datos y listo, todos felices todos contentos. Dato: en mi barrio robaban más los N que los B. Tiene mucho sentido que la policía identifique a los N. Hay una estadística en su contra. Saludos

    • @omargarcialechuga7205
      @omargarcialechuga7205 3 года назад +4

      @@charlycharly933 yo soy caucasico y no vivo en una burbuja como tu.

    • @charlycharly933
      @charlycharly933 3 года назад +1

      @travis Rm si los policías son de color cartón caca y tienen tatuajes jajaja. En qué mundo viven ustedes?

  • @palermo017
    @palermo017 3 года назад +6

    Lo extraño es porque los medios le dan cabida a que se traten temas estupidos, simplemente se debria ser indiferente con temas banales.

    • @ernestoj.aguilar7492
      @ernestoj.aguilar7492 3 года назад +1

      Pues creo que sutilmente quieren dar ideas, un tanto sesgadas a mi parecer, a las personas que no tienen expertiz en el tema, o simplemente personas sin criterio. Lo que me parece extraño en este canal.

  • @solcaribe7843
    @solcaribe7843 3 года назад +118

    ¿Policía predictiva? 🤔 Me recuerda esa película protagonizada por Tom Cruise, "Minority Report". ¿Syfy??? 😱

    • @raulmorales4388
      @raulmorales4388 3 года назад +2

      Estaba pensando lo mismo e iba a comentar pero estaba tu comentario,

    • @MrMDZ24
      @MrMDZ24 3 года назад +2

      Que buena pelicula..

    • @LelyHolis
      @LelyHolis 3 года назад +1

      Cieeeerto!

    • @wachitojc
      @wachitojc 3 года назад +1

      Justo hace dos días me recomendaron esa peli

    • @polyushkopole5292
      @polyushkopole5292 3 года назад

      cierto, es lo mismo

  • @juanmmm1652
    @juanmmm1652 3 года назад +16

    La culpa no es del software, esta echo por las personas intencionalmente

    • @joaquingrande371
      @joaquingrande371 3 года назад +3

      Si y no. Estos sistemas usan machine learning y con el tiempo la inteligencia artificial podrá ser entrenada a reconocer mejor a personas con diferentes tonos de piel. Sigue siendo interesante el tema

    • @FAR21.
      @FAR21. 3 года назад

      Como dijo Joaquín, son parámetros que deben irse afinando, pero se puede lograe

  • @velacalaca
    @velacalaca 3 года назад +22

    En un futuro tener el color de piel más oscura será la onda ya que no te pueden leer 😂

  • @carmafons.a.3403
    @carmafons.a.3403 3 года назад +8

    A ver cuando sacan los algoritmos para reconocimiento de gays, lesbianas y travestis. Esto se pone bueno.

    • @raulpenaloza4107
      @raulpenaloza4107 3 года назад

      Apuesto que diran que como no sabe indentificarlos, "fue construido por un hombre heterosexual"

  • @carlosot.7107
    @carlosot.7107 3 года назад +2

    Curiosamente los nuevos comerciales están haciendo un énfasis exagerado en personas de rasa negra. Para la muestra el nuevo comercial de “ google pixel”

  • @ernestoj.aguilar7492
    @ernestoj.aguilar7492 3 года назад +7

    No veo racismo intensionado aquí, el mercado se encargará de ajustar las tecnologías.
    Como bien mencionan las expertas, el resultado de los algoritmos depende de los datos que utlizan para entrenarlos, pues si aún hay problemas en la predicción de estos algoritmos, estos problemas no deben calificarse como "racismo" o "desigualdad", simplemente deben añadir más datos y ajustar las tecnologías.
    Normalmente me gusta el contenido de este canal, excepto este video. Aunque la información que presentan no es erronea, es notable su sesgo que busca crear controversia y puede despertar odio en ciertos grupos. Parece que quieren hacer ver que hay racismo o desigualdad en estas tecnologías. Pues, puede que actualmente lo haya, como ustedes efectivamente demuestran, pero pienso que NO es intensionado.
    Unos puntos a considerar sobre las tecnologías:
    Si las tecnologías fueron desarrolladas, construidas y mayormente consumidas por el "hombre blanco", es obvio que la oferta de las tecnologías se ajuste a las necesidades de la demanda, esto no es racismo, es sólo resultado de la optimización de los productos/servicios hacia donde hay mayor demanda de los mismos. No se puede exigir a los productores/desarrolladores que fabriquen todo cubriendo todos los aspectos desde el día 0, harían a las tecnologías más costosas e inviables. En la medida en que haya una mayor demanda de estos productos/servicios por parte de otras razas, el mercado se encargará de adaptarlos, pues nadie quiere tener predicciones erroneas de sus algoritmos para después tomar desiciones erroneas.
    Sobre el uso de las tecnologías:
    Se sabe que las tecnologías pueden usarse para bien o para mal, depende de la democracia que no se violenten nuestras libertades.
    Por último, estas tecnologías buscan ayudar a tomar desiciones, pero son los humanos finalmente quienes toman las desiciones.

  • @Investigaciones-t1n
    @Investigaciones-t1n 2 года назад

    Me fascina como Lee y presenta Juan Sebastian Gómez. Lo admiro y es mi ídolo a seguir

  • @fabianalonsotorreschica4628
    @fabianalonsotorreschica4628 3 года назад +5

    Aquí desde Colombia, exelente programa

  • @Pettite18
    @Pettite18 3 года назад +25

    No es discriminatorio, es sólo actualizar las informaciones. De todo quieren hacer un tema racista donde no lo hay

    • @Javi.o.0
      @Javi.o.0 3 года назад +3

      Totalmente, las máquinas solo recopilan datos y en con base en eso toman decisiones...

    • @valentinavargas6647
      @valentinavargas6647 2 месяца назад

      Que sesgado tu comentario...

  • @eneene4930
    @eneene4930 3 года назад +8

    No hay discriminación. Solamente es el resultado de que la ciencia y la tecnología es mayoritariamente desarrollada por personas de raza blanca.

  • @moridulceria9266
    @moridulceria9266 3 года назад +14

    La IA está creciendo no es racista solo le falta información o corregir la información lo cual llevará un tiempo en perfeccionarse. Yo he trabajado con ia y se demora tiempo en enseñarle cosas o corregir. La IA se va alimentando de información y entre más info más precisa se vuelve.

    • @martasosa5973
      @martasosa5973 3 года назад +4

      De hecho desde mi punto de vista, siendo racista la AI emula casi en un 100% a un humano real...Mis aplausos a los cientificos!

    • @moridulceria9266
      @moridulceria9266 3 года назад +1

      @@martasosa5973 ciertamente es natural discrimar quizás no correcto en los criterios ahí hay una distorsión.

    • @nvozang3193
      @nvozang3193 Год назад

      Los racistas son los que escriben los algoritmos, los blancos. Su interpretación de todo es racista y este problema no acabará hasta que acabe su hegemonía, basada en el racismo.

  • @karlozgr
    @karlozgr 3 года назад +5

    ¿Ahora racista la IA? Rayos, si que se ofenden con todo. Solo cambien los criterios ajustados en la configuración de la IA. Y usen el sentido común, usualmente las armas son metálicas y de color oscuro, obvio la IA lo interpretó como un arma.

  • @rx8236
    @rx8236 3 года назад +4

    A mi me da miedo la vigilancia masiva a todos,imagínate acosadores encargados de vigilar a sus futuras víctimas!!!! Atroz!!!!; Ni siquiera se necesita una tiranía para que pase eso mucho 😭😭😭

  • @lupitaperez6272
    @lupitaperez6272 3 года назад +5

    Recordé algo extraño. Cuando yo era niño no podía distinguir un negro de otro. Todos me parecían iguales y cuando era adolescente todos los asiáticos también. Pero ahora ya no me pasa eso

    • @lucaswsvs117
      @lucaswsvs117 3 года назад +1

      porque cuando eres niño eres tu inteligencia no esta desarrollada, no tienes capacidad de abstracción, además de que no eres consiente del crimen y todo eso. En EEUU pasa mucho, blancos y negros son amigos de pequeños pero al crecer el blanco se da cuenta que con el negro no tiene nada q ver y son muy diferentes y la relacion pierde todo interes

  • @Osc785
    @Osc785 3 года назад +2

    Erradicar el racismo es tan imposible como querer erradicar el negocio del narcotráfico.

  • @danycage6457
    @danycage6457 3 года назад +18

    hombre, el sistema de reconocimiento uyghur habra sido ideado con intenciones cuestionables, pero aun asi, que tengo una efectividad del 70%... es de tener cuidado, puesto que la implementacion de la IA esta en pañales aun...

    • @lucionicolascenturionmedin1796
      @lucionicolascenturionmedin1796 3 года назад

      No realmente... Teniendo expertos en anatomía humana de las diferentes etnias, es correcto pensar que tendría una efectivadad mínima del 50% y máxima de 75-90%.

  • @anonimamente
    @anonimamente 3 года назад +7

    Me pregunto quiénes son las personas que entrevistan como "expertos en el tema" o sólo son voces escogidas que hacen eco al mensaje manipulador que quieren transmitir usando una fachada de información "neutral"?

  • @Hero19093
    @Hero19093 3 года назад +6

    Creo que el título de este video está errado y está tomando otro tono. La solución de esta situación es sencilla cuando estén haciendo los test deben incluir latinos, asiáticos, afroamericanos, caucásicos y personas procedentes de medio oriente.

    • @starvostokcres
      @starvostokcres 3 года назад

      El problema es que no hay suficientes como para llenar esos datos, no todos los países son iguales en tipos de personas algunos tienen mas de uno que de otro

    • @Hero19093
      @Hero19093 3 года назад +1

      @@starvostokcres Exacto y por eso considero que el título está exagerado, para mi es periodismo sensacionalista que busca dividir más a la humanidad para sacar algún beneficio

  • @lucaswsvs117
    @lucaswsvs117 3 года назад +4

    No entendí la queja. Se quejan de que la inteligencia artificial te identifica si sos negro, blanco, chino , joven o viejo, y si es su trabajo, esas son variables que sirven para resolver casos y todo eso. Si se busca un criminal determinado se programara para buscar ese rostro, pero acá te lo muestran como si se programa los algoritmos de forma subjetiva cosa que no existe en la informática porque todo se hace en base a estadisticas

    • @Tonatiub
      @Tonatiub 3 года назад

      se quejan de la realidad

  • @MrJuliocarrero
    @MrJuliocarrero 3 года назад +6

    Los algoritmos son neutros, el bien o el mal lo decide el humano que maneja los programas computacionales. Tal vez hace tiempo que entramos en una dictadura tecnológica?

    • @JeamLeppard
      @JeamLeppard 3 года назад +1

      Porque dictadura tecnologica?

    • @MrJuliocarrero
      @MrJuliocarrero 3 года назад +1

      @@JeamLeppard The Coup We Are Not Talking About
      We can have democracy, or we can have a surveillance society, but we cannot have both.
      By Shoshana Zuboff
      Esta autora nos explica parte de la dictadura tecnológica; @manuelabat; El enemigo conoce el sistema por Marta Periano, también en TED@youtube

  • @laczcambas
    @laczcambas 3 года назад +6

    Que bueno, breve, excelente e inquietante análisis

  • @stevencollins7186
    @stevencollins7186 3 года назад +43

    Como cuando ni la propia tecnología te quiere.😂😂😂

    • @ele.1807
      @ele.1807 3 года назад +2

      El comentario más estúpido.

    • @xcesar2000
      @xcesar2000 3 года назад

      @@ele.1807 cierto

    • @stevencollins7186
      @stevencollins7186 3 года назад +4

      @@ele.1807 escucha sub-desarrollado me avisas cuando aprendas discernir lo que es comentario "SARCÁSTICO ".

    • @ele.1807
      @ele.1807 3 года назад +1

      @@stevencollins7186 Métete tu sarcasmo indolente por el kul0

    • @stevencollins7186
      @stevencollins7186 3 года назад +2

      @@ele.1807 No llores 😭😭

  • @sebastianleloir6956
    @sebastianleloir6956 3 года назад +2

    Usan "hombres blancos" Cuando les conviene. Existen también programadoras. Lo que hay que entender es que las cámaras de foto tienen un tipo de focus+filtros de luz automáticos. Si dos personas con piel oscura se sacan una foto, no va a haber problema, si dos blancas lo haces tampoco va a haber problema. El problema surge cuando se sacan la foto los dos. Es como que la máquina no sabe hacer una auto regulación de la luz y tiende a entender más a la cara más nítida con más luz (la blanca). Si hiciera lo contrario no se vería bien. Las cámaras están hechas en su mayoría por asiáticos de piel más clara. Eso de hombres blancos es una idiotez.

  • @ssss-ud6uv
    @ssss-ud6uv 3 года назад +16

    hay varios tipos de algoritmos de inteligenca artificial, en este caso los programadores no tienen nada que ver ya que el programa escribe su propio algoritmo, lo que le ocurre en este aso es que simplemente a la inteligencia artificial le falta información y que aun no esta terminado.

    • @starvostokcres
      @starvostokcres 3 года назад +1

      Y la información que recibe puede ser de estadisticas, por ejemplo si en USA 8 de cada 10 personas arestadas son afroamericanos, entonces obviamente arrestaría a todas las personas que son de ese color de piel, lo único que haría sería generalizar más lo que tenemos

    • @bkjgvjggh7654
      @bkjgvjggh7654 3 года назад +2

      Cierto, este canal esta empezando a parecer algo progresista, ojala no termine cono Discovery o History Chanel hablando de pura conspiración o peor aun, simpaticen con el socialismo.

    • @casimirodutty246
      @casimirodutty246 3 года назад +1

      @@bkjgvjggh7654 osea si dicen lo que no te gusta, son socialistas. Vaya razonamiento tenemos 🤦🤦🤦

  • @mariagamez8328
    @mariagamez8328 2 года назад

    Excelente este vídeo de la lista de reproducción TECNOLOGÍA Y MUNDO DIGITAL del Canal DW

  • @HistoriaenCeluloide
    @HistoriaenCeluloide 3 года назад +7

    Un titular como este suena a chiste, pero si un portal como DW lo publica, significa que los niveles han caído muy bajo

    • @jonatanmercadocortegana5496
      @jonatanmercadocortegana5496 3 года назад

      El lenguaje es simbólico. El mensaje está entre líneas. Conservadores enojados por cosas imaginarias otra vez

    • @MessalaSeverus
      @MessalaSeverus 3 года назад

      ​@@jonatanmercadocortegana5496típico, tomar a todos como conservadores

  • @ggarron
    @ggarron 3 года назад +2

    Si la mayor parte de los asesinos seriales son hombres blancos. Y si hay un asesino serial en una ciudad. Deben los hombres blancos quejarse de ser los principales sospechosos?
    O los hombres de ser sospechosos de asaltos a mano armada y que no se sospeche de las mujeres?
    Las computadoras verás estadísticas, si la mayoría de quienes hacen algo son de algún grupo y vos sos de ese grupo serás sospechoso, pero se debe demostrar que eres culpable.

  • @L3rkRockstar
    @L3rkRockstar 3 года назад +23

    casi cerca del Psycho pass

    • @Pemon
      @Pemon 3 года назад +2

      con el microship entre el pasaporte

  • @paularodriguez481
    @paularodriguez481 3 года назад

    Está claro que la tecnología aprende del humano. Es importante que aprendamos a mejorar estas fallas. También es importante que antes de sumergernos en el mundo IA se cree un marco legal de uso. No queremos ni gobiernos ni empresaa controladores..que hagan mal uso. Es urgente el marco legal y ético. En búsquedas de empleos, inversores, créditos..etc..hace tiempo que hay discriminación algoritmica...

  • @manueleinarrcamaperez3792
    @manueleinarrcamaperez3792 3 года назад +6

    Nada de racismo, solo es un problema técnico fácil de solucionar, se hacen bolas por nada.

    • @kkkaaa5967
      @kkkaaa5967 3 года назад

      entonces por que no se soluciona si es tan facil?

  • @jirt36
    @jirt36 3 года назад +8

    Nesgro es negreo y blanco es blanco para una computadora, a ella s no se les puede programar sentimientos

  • @tonimacarroni5208
    @tonimacarroni5208 3 года назад +8

    Minuto 0:16 NO, no son racistas, faltan datasets de datos o los datos dicen lo que ha muchos les cuesta mirar, ahora prosigamos con el video a ver con que nos sorprenden ahora
    Edit 1: tayTweet solo tuits racistas porque aprendia de los usuarios y un grupo de usuario decidio sabotearla, no mintais.
    Edit 2: tal vez la cuestion seria por que hay mas no-blancos centrados en cardi B y demás tonterias y porque mas blancos creando tecnología. Si en los datasets de imagenes hay mas negros cogiendo un arma que un blanco, la IA dira que por probabilidad si hay una mano negra, eso tendrá que ser un arma. Sonara racista para los bobos, la realidad es que solo hay que ver videoclips de rap/trap y dichos fans en redes sociales junto con las estadisticas de asaltos armados y violentos, para darse cuenta del porque los datasets y la IA dicen lo que a muchos incomoda.

    • @tonimacarroni5208
      @tonimacarroni5208 3 года назад

      @@eugeR137 tu eres el tipico garrulo que iba diciendo black life matters mientras segun las estadísticas de la casa blanca, mueren mas blancos a manos de los policías, que negros, aun cuando estos causan mas delitos de asalto.
      Si si, soy muy racista, claro... (soy africano hahahaha).
      Atentamente un desarrollador de software ;)

  • @vicentemartinezcabrera8468
    @vicentemartinezcabrera8468 3 года назад +1

    Las flores son de diferentes colores y todas son bellas. Los seres humanos también somos como ellas. No venimos de un mundo lejano. Nuestra madre es la tierra y nos alimenta a todos no hace diferencia.

  • @eduardoreyesmejia2912
    @eduardoreyesmejia2912 3 года назад +3

    Hay y ahora la gente va a hablar del racismo digital, y vamos a decir la maquina me discrimino y los negros van a tener mas pretextos para hablar de racismo.

  • @AldeBrn
    @AldeBrn 3 года назад +2

    Se lo toman exageradamente ofensivo , la verdad es que estos sistemas están para perfeccionarse , y con el tiempo se mejorará los algoritmos es más complicado un nuevo algoritmo que abarque más diversidad ,sobre todo en personas de color la luz se refleja menos así que en sistema no tan complejos y al utilizar un algoritmo más básico es posible que falle y ha pasado con cámaras de seguimiento de rostros , pero es un problema más técnico que social

  • @applejack9482
    @applejack9482 3 года назад +10

    El lado positivo es que así no te pueden controlar pasando desapercibido por las calles llenas de cámaras.

  • @donatello4186
    @donatello4186 3 года назад +8

    Auxilio mi lavadora, refrigerador y estufa creo que es machista y mi tele y computadora son sexistas 😱
    Bueno fuera de broma todo puede tener una buena explicación el reconocimiento facial es una tecnología que se basa en proporción de nuestra genética sinceramente es solo que profundiza un poco en cuestión de los pocos rasgos distintivos que nuestro rostro pueda tener, en el caso de los chinos rayos DW de verdad creen que si un fugitivo que estuviera en occidente con los rasgos asiáticos (que bien sabe uno que se parecen tal clones) no sería boletinado así o el programa de seguridad tendría cierta preferencia por ese tipo de rostro por qué según es racista!!?? Vaya bobada con lo de la estudiante pues que puedo decir de su computadora, su sistema de reconocimiento facial de la universidad obviamente es deficiente no racista, no es que la máquina pudiera tener juicio alguno.
    El bot racista de Twitter (página preferida de ofendiditos por cierto) bueno su programa seguro se basaba en imitar a los comentarios más populares que encontrara en la red social, últimamente cualquier loca se dice feminista y comenta semejante estupidez que la gente la termina por apabullar con comentarios críticos o de desprecio por su movimiento como el ejemplo que pusieron!!
    Y por último si es cierto la gente es racista ( no toda obviamente) pero las máquinas por si solas no, son solo otra extensión de nosotros!!

  • @wilderramonvelasquezherrer7153
    @wilderramonvelasquezherrer7153 3 года назад +5

    IA para identificación de la minoría musulmana Uigur para encarcelarlos y castigarlos en los campos de concentración chinos, la política de reeducación china

  • @silvamendezmendez7017
    @silvamendezmendez7017 3 года назад +1

    Gracias por la matéria. Excelente como siempre

  • @juanhorac4605
    @juanhorac4605 3 года назад +8

    Que fabriquen robots arco iris 🌈
    Y ya está
    👍 👍 👍 👍 👍 ❤

  • @camilo4334
    @camilo4334 3 года назад +1

    el ser humano todavia no esta preparado para crear un IA. todavia estamos en fase de preevolucion.

    • @MessalaSeverus
      @MessalaSeverus 3 года назад

      o todavía no se ha terminado de perfeccionar las inteligencias artificiales

  • @maquinasinteligentesitm1679
    @maquinasinteligentesitm1679 3 года назад +6

    No es que sea rasista , es que las camas y algunos dispositivos de distancia usan reflecion de inflarojos y estos a veces no refleja bien en cuerpos negros y me ha pasado que algunas pieles negras no refleja en algunos infrarojo baratos. por ejemplo en dispenzadores de liquidos.

    • @samypm2024
      @samypm2024 3 года назад

      wow no sabia

    • @o.ev.l6621
      @o.ev.l6621 3 года назад

      Mentira.

    • @steelkraken
      @steelkraken 3 года назад

      @@o.ev.l6621 ¿Eres experto en I.A.? Porque como estudiante de I.A. puedo dar fe de que es cierto. Pero además, sólo se necesita sentido común para darse cuenta de ello: las cámaras tienen muchas dificultades para filmar (o tomar fotos) en condiciones de poca luz. Eso hasta un niño lo ha comprobado usando tan solo su celular.
      ¿Quieres argumentar que hay cámaras que logran salvar este inconveniente? Pues también te tengo noticias: eso lo logran con VARIAS cámaras DE ÚLTIMA GENERACIÓN muy costosas. Nada que ver con las cámaras económicas de vigilancia.

  • @zapatlas
    @zapatlas 3 года назад +1

    Reconocer a los chinos, la mayoría se ven iguales, es increible pensar que no són una cultura tan homogenea como pensamos.

  • @TheRedSeaCode
    @TheRedSeaCode 3 года назад +4

    Es duro, pero algunas personas de piel oscura sí parecen monos, hay que reconocerlo. Si un modelo está entrenado para reconocer monos es posible que se etiquete a una persona como tal.

  • @Omarqp
    @Omarqp 3 года назад +1

    Deberían forzar a las personas oscuras que estudien las ciencias que crean ese tipo de tecnología Y dejen de lloriquear por los inventos de las personas que estudiaron esas ciencias.

  • @RolLeoRM
    @RolLeoRM 3 года назад +5

    Ellos lo ven como una desventaja, pero para mi es una ventaja, pueden robar y el algoritmo no se detecta y no podran reconocer :v

    • @Ellen-sn9dh
      @Ellen-sn9dh 3 года назад

      😂😂 Lo mismo pensé.

    • @artur26744
      @artur26744 3 года назад

      Si son invisibles para la rebelión de las máquinas y ellos pueden derotar las máquinas y las máquinas no vieron lo que los derotaron

  • @armando2617
    @armando2617 3 года назад +2

    me parece que los algoritmos parten del comportamientos de los grupos raciales, los rasgos Fisicos, sus valores morales, su nivel intelectual, creo que los algoritmos no tratan de corregir ni educar a nadie sensillamente elabora una fotografia de sus habitos para definir un patron.

  • @JohnDoe-rk7ex
    @JohnDoe-rk7ex 3 года назад +5

    Un 70% de precisión es un avance muy grande, en especial en una etnia muy semejante.

  • @jovenvillano8305
    @jovenvillano8305 3 года назад

    Le pregunté a Alexa si de algún modo robaba mi información personal. Me respondió:
    "Es por que soy negra?"

  • @GustaVeg
    @GustaVeg 3 года назад +14

    Pues mi cámara de vigilancia detecta a mi perrita como humana.🤪

    • @00hn34
      @00hn34 3 года назад

      XD

    • @bkjgvjggh7654
      @bkjgvjggh7654 3 года назад +5

      No imagínate, la asociación canina para la equidad en el desarrollo de software e IA debe estar planificando una protesta masiva.
      En todo este documental no veo que se haya tratado de explicar el proceso de desarrollo de una IA a profundidad y explicar como con el tiempo su desarrollo mejorara.

  • @andresitorendon
    @andresitorendon 3 года назад

    El bot de Twitter se volvió así, porque de eso es que esta lleno este planeta de sexismo, racismo y antisemitismo, aprendió de los seres humanos

  • @luxose
    @luxose 3 года назад +4

    Con esta tecnología van camino a lo que muestra la película de Tom Cruise Sentencia previa (Minority report, 2002), un Estado policial que incluso pretende entrar en la mente de sus ciudadanos para predecir delitos y disidencia. El Estado dictatorial perfecto. Excelente reportaje.

  • @MonastraOperaSymphonyClassical
    @MonastraOperaSymphonyClassical 3 года назад +1

    ¿RE-EDUCAR A UNA IA?
    Si poco a poco la IA va acercándose a la "singularidad" (el día que pueda igualarse y luego superarse la inteligencia humana), las IA tendrán también sus propios pensamientos, gustos arbitrarios y hasta sentimientos... ¿y si las IA autónomas del futuro posible sienten o deciden que los negros no son de su gusto? ¿Quién va a poder "re-educar" en forma "inclusiva" e "igualitaria" a una máquina que va a ser superior? Estamos en ese camino. Tan fascinante como aterrador.

    • @txavielhumano6541
      @txavielhumano6541 3 года назад

      Con ese comentario se sabe q tus conocimientos de IA son de películas y no de la realidad, hacete un curso en youtube y luego opina

    • @MonastraOperaSymphonyClassical
      @MonastraOperaSymphonyClassical 3 года назад

      @@txavielhumano6541 Mis conocimientos sobre IA es información directa de amigos que trabajan en sistemas informaticos en el CERN, y son matemáticos, físicos teóricos y astrofísicos. Usted no tiene idea de los pasos agigantados con los que avanza el desarrollo en IA. La pobreza supina, como la suya en evidencia, no es mi realidad.

  • @007joseelrey
    @007joseelrey 3 года назад +5

    Saludos desde Lima Perú

    • @chuckschuldiner6287
      @chuckschuldiner6287 3 года назад +1

      Pais bananero

    • @Xoandrex95oX
      @Xoandrex95oX 3 года назад +4

      haa... ya ve que has venido a probar nuestras bananas...

    • @jorgegonzalo1693
      @jorgegonzalo1693 3 года назад +3

      @@chuckschuldiner6287 lo dice un mexicano jaja

    • @julioj6412
      @julioj6412 3 года назад

      @@Xoandrex95oX No tardan en llegar los xenófobos...

    • @gavilan17409
      @gavilan17409 3 года назад

      CHUCK SCHULDINER. Mindundi, ceporro, estulto, etc.

  • @HerrNebel78
    @HerrNebel78 3 года назад +1

    Si a una I.A. se le cargara más de 5 mil años de datos documentados de los seres humanos en todo el mundo el resultado no tendría nada que ver con los estándares éticos de occidente en la actualidad. La justicia y la ética que se promueve en occidente es simplemente más de lo mismo, no se busca un mundo más justo, sino imponer un pensamiento y pisotear aquellas culturas diferentes.

  • @mariafont8826
    @mariafont8826 3 года назад +7

    ¡Muchas gracias!
    El mundo marcha tan rápido, en todas las direcciones (excepto la humanista), que a la gente de a pie, como uno, le cuesta entenderlo. Necesitamos pensadores, necesitamos filósofos, para frenar este caballo loco y volver a disfrutar de "vivir". 🇺🇾

  • @1ZUNEX
    @1ZUNEX 3 года назад +2

    En si la inteligencia artifical no es racista todo depende de como haya sido programada sus datos o para que lo quieran usar y si el algoritmo no reconoce al principio el rostro negro cuando fue programado en si por blancos es por que necesita mas datos para poder identificar mejor el rostro y el de los policía es que en zonas especificas en Estados unidos hay más arrestos de negros ,asiáticos,latinos o blancos dependiendo de las zonas y despues usan los datos de los arrestados para mejorar los datos y por desgracias en general usan los datos de las zonas mas peligrosas y en esas zonas hay mas negros o latinos que otras cosas

  • @rojjerg7466
    @rojjerg7466 3 года назад +3

    Esto es lo que pasa cuando no se hace bien el proceso de Machine Learning

  • @sayavedra_sh4075
    @sayavedra_sh4075 3 года назад +1

    Esto ya se está pasando de estúpido de verdad que esto ya es extremadamente estúpido, enserio no puedo creer que algo tan ridículo esté pasando... El mundo de verdad se esta llendo a la mierda.

    • @sayavedra_sh4075
      @sayavedra_sh4075 3 года назад

      @Dhemmlerf muy identificado con tu comentario

  • @don_Danny
    @don_Danny 3 года назад +19

    Hay un poco de vídeo en su victimismo.

    • @yerdans
      @yerdans 3 года назад +3

      no es victimismo, son hechos

    • @andersonrojas2002
      @andersonrojas2002 3 года назад

      @@yerdans dilo sin llorar

    • @yerdans
      @yerdans 3 года назад

      @@andersonrojas2002 ???

    • @j.c.espindola5747
      @j.c.espindola5747 3 года назад +1

      @@andersonrojas2002 y tu afronta la verdad de la historia con valor

    • @andersonrojas2002
      @andersonrojas2002 3 года назад

      @@j.c.espindola5747 y admite que la inteligencia artificial se equivoca con cualquiera sin importar su color de piel o raza

  • @ElJustoJuez33
    @ElJustoJuez33 3 года назад +1

    Racista o no, pero en China no se ve una sola patrulla y puedes andar caminando de noche, comparado con CDMX a pesar del c4 hay muchos delitos, en mi ciudad a 30 minutos de Villahermosa, estrenaron el famoso c4 al otro día mataron a una mujer en la deportiva, se llevaron su auto y resulta que las cámaras no captaron nada o aun no servían, pero ya las habían presumido las autoridades.

  • @Uruguayosoy
    @Uruguayosoy 3 года назад +7

    Muchos pro y muchas contras el Big Data
    Se va agudizar las diferencias que hoy existen
    Va a ser difícil acceder a lugares de privilegios porque la inteligencia artificial relaciona color de piel, barrio donde vivís, descendencia y demás...

    • @JeamLeppard
      @JeamLeppard 3 года назад +1

      Algo que estadisticamente es correcto, solo que los progres creen que las estadisticas no sirven

    • @piedramultiaristas8573
      @piedramultiaristas8573 3 года назад

      @@JeamLeppard No crees que hay que hacer algo para cambiar la estadística? Y ver que hacen los de arriba que roban mas estadísticamente también?

    • @JeamLeppard
      @JeamLeppard 3 года назад

      @@piedramultiaristas8573 Sisi, estaria bueno que cambien las estadisticas nadie dijo que no, yo me baso en la precision de la IA, y no entiendo que tiene que ver "los de arriba" nose de que me hablas, de Jesus? no entiendo quien está por encima tuyo

    • @piedramultiaristas8573
      @piedramultiaristas8573 3 года назад

      @@JeamLeppard Con los de arriba me refiero a la clase alta mas bien a los corruptos sobre todo los políticos

    • @piedramultiaristas8573
      @piedramultiaristas8573 3 года назад

      @@JeamLeppard Creo que lo que debería hacerse es llevar estudio individual de cada persona y si en un cierto tiempo va cambiando de actitud se le califique mejor pero el problema es cuando cae en manos de psicopatas, psicopatas y narcisista un control así tan grande de echo según psicólogos estamos llenos de líderes así porque donde hay control a ellos les gusta estar, porque se puede manipular para hacer ver a alguien o a cierto grupo como malos por eso deberían existir varrios sistemas de evaluación par a minimizar que esto ocurra aunque podría pasar pero repito se podría minimizar

  • @alerome8158
    @alerome8158 3 года назад

    Que obsesion con el color de piel, me tiene harta el tema del racismo, enserio no comprendo porque hay tanta gente que le toma tanta importancia a eso

  • @joaquincarbajal6884
    @joaquincarbajal6884 3 года назад +4

    Eso de la prediccion del delito se parece mucho a Minority Report y al sistema de eliminación de amenazas de los helicarrier de Hidra en la película de Capitán América y Winter Soldier.

  • @heclanet
    @heclanet 3 года назад +1

    Se dice que vivimos en un mundo globalizado y "políticamente correcto"
    Pero por el motivo que sea refleja una cruda realidad, hay mucho discurso de igualdad pero no igualdad

    • @starvostokcres
      @starvostokcres 3 года назад +2

      Ah veces lo "politicamente correcto" es solo una hipocrecía o una utopía, ahora le hemos dado a la inteligencia artifical la capacidad de estereotipar como nosotros 🤣

  • @Henyckma
    @Henyckma 3 года назад +5

    Muy buen video! Gracias a las investigaciones de Pablo López y Juan Sebastián Gómez suelo ver estos videos tan interesantes y compartirlos con mis amigos, estan muy bien creados y la analitica es impresionante, tocan los temas de mayor interés e impacto ayudando a comprender mucho mejor

  • @kevinestui645
    @kevinestui645 3 года назад +2

    No es racista se basa en echos y estadisticas.

  • @twimc4746
    @twimc4746 3 года назад +3

    Pues no la usemos

  • @fernandoots7622
    @fernandoots7622 3 года назад +1

    Hay una pregunta muy simple. Respecto a la identificación racista y sexista del algoritmo de la IA que etnias y que sexo, de cada individuo, considera peligrosos? Porque hablan de racismo y de sexismo, pero aclaran solo lo de racismo, y dan a entender lo de sexismo. Qué chantada.

  • @rafaelfernandezdemeneghi2283
    @rafaelfernandezdemeneghi2283 3 года назад +4

    No son tan inteligentes ni tan artificiales, aún así, aportan muchísimo

  • @anonimus5415
    @anonimus5415 2 года назад +1

    2:23 y porqué no fueron hombres negros los que desarrollaron la I.A.?. :)

  • @Samthahoff
    @Samthahoff 3 года назад +6

    Tay no se volvió sexista, racista y clasista 🤨 solo se volvió una twittera promedio 🤣

  • @jairoluis8811
    @jairoluis8811 3 года назад +2

    Ahora la intrligencia artificial es rasista? Un mundo desocupado y sin proposito en la vida.

    • @kkkaaa5967
      @kkkaaa5967 3 года назад +1

      mirate el video primero genio

    • @jairoluis8811
      @jairoluis8811 3 года назад

      @@kkkaaa5967 no sabia que tenia que pedirte permiso para opinar, aca kaka es mierda, por eso haces honor a tu nombre.

  • @miguelangelmantilla189
    @miguelangelmantilla189 3 года назад +8

    Que pendejos!!! Ya me imagino cuando la cámara enfoqué un negro desnudo "alerta trae una bazuca" 🤣

    • @hanahin94
      @hanahin94 3 года назад +2

      Es el primer documental que más cringe me ha dado, estos progres ya no saben de que quejarse

    • @brayanmoreno6527
      @brayanmoreno6527 3 года назад

      🤣🤣🤣🤣🤣🤣

  • @charliefckinmarr1188
    @charliefckinmarr1188 3 года назад

    Es gracioso que los “periodistas” que no encuentran una nota decente siempre pueden recurrir al “voy a hablar de algo que no entiendo para aprovechar la ignorancia de la gente que me lee y así justificar mi existencia” xD

  • @JohnvKampen
    @JohnvKampen 3 года назад +11

    Frenologia digital?!

    • @Gominola01
      @Gominola01 3 года назад

      Estamos retrocediendo en lugar de avanzar?

    • @a9l216
      @a9l216 3 года назад

      Cierto 🤣🤣🤣🤣🤣

  • @elgatosoft
    @elgatosoft 3 года назад

    5:00 "esta tecnología ni siquiera puede relacionar objetos con personas de forma confiable"... pues es que ese es el avance a hoy de "esta tecnología", por eso se trabaja con un porcentaje de confianza. Debe ser considerada una ayuda y no la ultima palabra.
    Si tenemos una camara de estas en una estación de metro (de EEUU) y salta una alarma por coincidencia cuando identifica a un sospechoso de terrorismo. ¿cual es el paso a seguir?, ¿disparar si preguntar?, no, la idea es que hay un sospechoso. La tecnología solo ofrece una ayuda.
    No hay que ser tan alarmista y tratar de entender la tecnología y su avance.