INTELIGÊNCIA ARTIFICIAL do Google é RACISTA?

Поделиться
HTML-код
  • Опубликовано: 5 фев 2025

Комментарии • 481

  • @walmirramos
    @walmirramos 11 месяцев назад +546

    É preciso lembrar que quem culpa os tais 'algoritmos' ignora que eles não são produzidos do além, mas sim por pessoas. E o viés ideológico dessas pessoas faz toda diferença.

    • @filipealmeida9397
      @filipealmeida9397 11 месяцев назад +78

      Na verdade as Inteligências Artificiais (IAs) utilizam em seus dados de treinamento dados reais. Se os dados reais tiverem algum viés ideológico, preconceito ou qualquer outro tipo de problema, o algoritmo irá replicar. Por isso, quem treina as IAs precisam tratar os dados usados no treinamento para combater esse tipo de problema.

    • @wendel8350
      @wendel8350 11 месяцев назад +24

      @@filipealmeida9397 ainda sim, na minha opniao, não acho que o problema foram as fontes duvidosas, eles sabiam o que tava fazendo, a google nao é nada pequena,em algum momento do vídeo o próprio lion até cita o fato da Google querer um gerador de imagem mais "diverso". Preferiram lacrar a entregar um produto convincente.

    • @carlostakeshi3742
      @carlostakeshi3742 11 месяцев назад +2

      Uma coisa muito importante é o prompt que representa a camada encapsuladora da IA Generativa. Tanto o Bard (que agora se chama Gemini), quanto o chat GPT e outros possuem um prompt para justamente tentar limitar certos tipos de resposta. O problema é que é super complicado fazer um prompt que seja muito abrangente. Então não necessariamente precisamos trocar a base de dados, podemos através de engenharia de prompt criar um ideal

    • @JoseCarlos-ou1vi
      @JoseCarlos-ou1vi 11 месяцев назад +11

      ​@@wendel8350 na verdade eles viram que os dados são preconceituosos, e isso é um fato. Preconceito é o que? Crime. Logo tem que ser tratado. O problema é a gambiarra para tratar isso.

    • @arthurgodoy1108
      @arthurgodoy1108 11 месяцев назад +10

      Cara, existem mais negros em sub empregos sim, é apenas um reflexo da vida real, simples, não é racismo, é apenas a vida, os negros na maioria dos países ainda sofrem com consequências da escravidão

  • @joprogamer8903
    @joprogamer8903 11 месяцев назад +560

    A verdade é que a Google veio muito atrasada nessa batalha de inteligência artificial, outras empresas estão à frente da Google

    • @linuxp00
      @linuxp00 11 месяцев назад +26

      Na verdade, a Google já teve investimento nessa área, mas parou para não se canibalizar, como a Kodak com as câmaras digitais.

    • @alcrian8627
      @alcrian8627 11 месяцев назад +22

      Mas o Gemini dá de 10 a 0 no ChatGPT. O tanto de funcionalidade que aquilo tem é um absurdo.

    • @joprogamer8903
      @joprogamer8903 11 месяцев назад +8

      @@alcrian8627 não estou comparando o chat gpt e o gemini e sim tudo em geral a maioria das coisas o Google perde por outras empresas de IA isso é bem claro, por que o Google ta atrasado nessa área inclusive ta uma piada esse criador de imagens do Google a OpenAI a nova IA de vídeo da uma surra em todas a Sora pelo visto vai revolucionar essa área

    • @alcrian8627
      @alcrian8627 11 месяцев назад

      ​@@joprogamer8903Amigo, pelo visto você não atua muito no campo da IA. Realmente, o Sora é o que temos de melhor em geração de vídeo (não saiu pro público geral, ainda). Mas, o foco do Gemini não é esse. Se você trabalha com IA, sabe o quão referência Gemini é pra muita coisa. O ChatGPT é uma IA de modelo de linguagem, ou seja, ele foca em palavras. Ele é horrível pra cálculos ou qualquer outra coisa que não seja relacionada à linguagem. Gemini, por outro lado, é uma junção de vários projetos de IA do Google. Ele faz cálculos corretamente, ele corrige código de programação corretamente (inclusive, faz sugestões de otimização). O Google tá anos luz na frente do que o ChatGPT oferece.

    • @zofise
      @zofise 11 месяцев назад +6

      @@alcrian8627 Nunca, o GPT 4 continua melhor que o google gemini, ao menos por enquanto

  • @samueldacosta6891
    @samueldacosta6891 11 месяцев назад +111

    Sou graduando em ciências sociais na universidade estadual do sudoeste da Bahia. Minha Tese terá base nas relações entre IA, relações étnicas e a vida de artistas. É muito massa que frequentemente eu pego material com os videos de vcs ❤️

    • @caeoeo
      @caeoeo 11 месяцев назад +3

      Muito cuidado, ja vai preparando os estudos em IA pq é um assunto complicadissimo

    • @davi3789
      @davi3789 11 месяцев назад +6

      Nao tem sentido vc trabalhar em uma tese sobre um assunto que vc nao sabe como funciona. Digo isso, pois acho dificil que com sua formaçao vc entenda alguma coiaa da matematica envolvida em redes neurais.

    • @caeoeo
      @caeoeo 11 месяцев назад

      @@davi3789 !!!!!!

    • @RhuanPacheco
      @RhuanPacheco 11 месяцев назад +10

      @@davi3789 A "matemática" da IA não tem nada a ver com o que ele quer fazer...

    • @davi3789
      @davi3789 11 месяцев назад +1

      @@RhuanPacheco tem tudo a ver, nao é possivel as relaçoes de elementos que vc desconhece a natureza.

  • @franz_fazb
    @franz_fazb 11 месяцев назад +301

    o problema dessa IA não é que ela simplesmente se RECUSA a gerar imagens de pessoas brancas, em praticamente qualquer contexto mesmo que você peça especificamente por isso

    • @ValiHer0
      @ValiHer0 11 месяцев назад +33

      Kkk e eu querendo fazer uma bala atingindo um vidro no do Bing e cara toda vez a bala ficava de pé e eu insistindo escrevendo de todo modo e ele preferiu fazer uma bala atingindo outra bala em pé do que só fazer uma bala na horizontal passando pela tela kkkk que era só isso que eu queria

    • @jefersonbalmeida
      @jefersonbalmeida 11 месяцев назад +7

      ​@@ValiHer0também tenho dificuldade pra conseguir a imagem que eu quero com o Copilot.

    • @felixnotthecat4249
      @felixnotthecat4249 11 месяцев назад +3

      qual é o problema?

    • @ARIEL-bc8tq
      @ARIEL-bc8tq 11 месяцев назад +3

      ​@@felixnotthecat4249assistiu o vídeo não??

    • @Deadkkkj
      @Deadkkkj 10 месяцев назад

      imagina empresas e pessoas usando essa ia pra estudos ou coisa parecida e pedem um soldado alemão em 1943 e a IA só consegue gerar pessoas asiáticas e negras@@felixnotthecat4249

  • @moebtz
    @moebtz 11 месяцев назад +141

    acredito que o problema não seja necessariamente que a IA seja racista ou preconceituosa, tem dois problemas ai, o primeiro é a geração de informações falsas que foi apontado com o caso dos senadores americanos por exemplo, a outra é querer que a IA gere diversidade quando a base de dados dela não é diversa. Infelizmente nós negros não estamos na maior parte dos cargos de destaque, digo isso falando do Brasil por exemplo, há uma grande maioria de médicos, engenheiros, juízes brancos em contrapartida cargos de menor destaque como faxina, empregada domestica, limpeza, etc, são cargos onde pessoas negras ocupam em sua maioria, ou seja se a base de dados dessas IA's é essa, isso indica na verdade um reflexo de nossa sociedade e não um enviesamento necessariamente, ou seja precisamos mudar a sociedade como ela funciona e não os resultados que uma IA apresenta.

    • @sillyhetzal
      @sillyhetzal 11 месяцев назад +6

      Correto

    • @dezenov_
      @dezenov_ 11 месяцев назад +6

      É isso

    • @PunkMetal-mm9hn
      @PunkMetal-mm9hn 11 месяцев назад

      Errado. Quando vc pede pra ela fazer imagem de pessoas que existiram brancas como George Washington transforma ele em negro. Se vc pesquisar "homem forte branco" ela fala que não pode gerar pois é algo racista, se vc pesquisar "homem negro forte" ela vai gerar normalmente. O único racismo dessa IA é contra pessoas brancas.

    • @oandarilho8130
      @oandarilho8130 11 месяцев назад +3

      é muito mais fácil concertar uma IA doque mudar a sociedade

    • @instalacaoeletrica-n3w
      @instalacaoeletrica-n3w 11 месяцев назад +5

      Bom mas realidade do EUA e outra la diferente mente do Brasil e por incrível que pareça tem muito mais pessoas negras em cargos de destaque que no Brasil que um pais incrivelmente racista

  • @fabiotchezaum
    @fabiotchezaum 11 месяцев назад +33

    Uma coisa que te talvez vcs não tenham notado por não serem tão inteirados em assuntos raciais: quando solicitado para a IA para gerar imagens de várias etnias ela provavelmente não gera pessoas brancas pq já o preconceito de que apenas o não branco é uma etnia e o branco seria o "padrão". Esse tipo de preconceito com certeza está nos dados usados para treinamento da IA

    • @flaviassimas
      @flaviassimas 11 месяцев назад +2

      sim, entra ano, sai ano, e a categoria "branco" permanece intocável.

  • @cauereis2064
    @cauereis2064 11 месяцев назад +27

    Se eu não me engano, no online do Call of Duty World War 2 de 2017, você também podia criar seus soldados alemães sendo mulheres negras, o que era totalmente bizarro e tirava um pouco da imersão de estar jogando um jogo da segunda guerra mundial.
    No Battlefield V também se não me engano da para ser uma mulher asiática no time alemão...

    • @emanuellucin
      @emanuellucin 11 месяцев назад

      Eu sei mas tem negro que quer se sentir como um soldado na segunda guerra. Eu também acharia daora " e se os soldados fossem negros" e refletir um pouco. Precisa olha pra todos os lados

    • @cauereis2064
      @cauereis2064 11 месяцев назад +9

      @@emanuellucin acho que eles foram nessa ideia de inclusão, mas acabou que deu bastante polêmica na época, e agora se repetindo com a ia

    • @Mighzin
      @Mighzin 2 месяца назад

      ​@@cauereis2064 meio esquisito achar isso um problema, man

  • @mathexs_or
    @mathexs_or 11 месяцев назад +5

    Bom lembrar que em 2015 o Google fotos identificava pessoas e coisas. Na época uma mulher negra foi classificada como GORILA e o Google excluiu o termo de dentro do app.

  • @dominandoI.A
    @dominandoI.A 11 месяцев назад +132

    Diversidade de maneira forçada dá isso aí, quando os dados já vem com viés, se você não trata de forma certa acontece exatamente isso, bastar mudar 1 parâmetro errado que surge coisas bizarras como essa

    • @GSBroker
      @GSBroker 11 месяцев назад +17

      É uma questão de calibração, porque os dados que treinam essas inteligências artificiais já vêm enviesados.

    • @dominandoI.A
      @dominandoI.A 11 месяцев назад +3

      @@GSBroker exatamente, a questão é q resolver este problema não é uma tarefa tão simples como muitos imaginam, na vdd é bem complexo

  • @RapiereGridoro
    @RapiereGridoro 11 месяцев назад +12

    já pararam pra pensar que as histórias de princesas da Disney são revisionismo histórico? Tipo as histórias originais não eram aquelas, mas hoje todo mundo só lembra delas, as lições que queriam passar no passado com elas se perderam ou estão se perdendo

    • @RapiereGridoro
      @RapiereGridoro 11 месяцев назад +3

      @@Mr_Leo_DSeu tava pensando mais no sentido do registro do conto e não sobre elas guardarem algum fato da história, algo mais do tipo "oque essas histórias ensinavam quando foram escritas?" ai quando alguem fala a data em que foi escrita a pessoa lembra do da disney e não da história original e fica com uma impressão errada de qual era a verdadeira mensagem

  • @caschorro
    @caschorro 11 месяцев назад +11

    Pessoal quis ser inclusivo até demais KKKKKKKK a IA simplesmente cagou pros contextos históricos promptados

  • @juliedsonartur3956
    @juliedsonartur3956 11 месяцев назад +61

    8:16 Apenas um pequeno comentário: pode ser que já tenham existido sim Papas negros, como Vítor I (189-198), Melquíades (311-314) e Gelásio I (492-496). Porém, não é uma certeza histórica, dado o contexto da África do Norte. Ainda assim, de séculos para cá, eles são na grande maioria brancos.

    • @JulioCezar-vw3sq
      @JulioCezar-vw3sq 11 месяцев назад +33

      Não e pq eles nasceram na Africa que eles são negros. Quase todos citados aí nasceram na Africa do Norte, que não tem muitos negros

    • @um_dia
      @um_dia 11 месяцев назад +12

      Nenhum dos papas que você citou eram negros, da proxima vez leia o material completo.

    • @dieselboy.7637
      @dieselboy.7637 11 месяцев назад +13

      Parabéns Julie, nenhum dos papas q vc disse são negros, eles são brancos, e não é pq nasceram na África q necessariamente eles são negros, parece q é vc quem está praticando racismo estrutural.

    • @mayrasantos3201
      @mayrasantos3201 11 месяцев назад +10

      Nascer na África não significa que eles sejam Negros. Esses Papas que você citou são todos da África do norte, onde a população é em grande parte Árabe. E curiosamente a África do norte é conhecida como "África Branca". Então sim, é certo dizer que não existiriam papas negros

    • @TheMsyzz
      @TheMsyzz 11 месяцев назад +6

      Eles eram Africanos, mas no máximo eram pardos (estou usando a lógica Brasileira).

  • @yurimanoel1150
    @yurimanoel1150 11 месяцев назад +15

    E a mensagem que o Gemini dava quando você pedia imagens de pessoas brancas especificamente e ele se recusava e dava uma mensagem de inclusividade.

  • @Proggoo152
    @Proggoo152 11 месяцев назад +55

    eu notei isso também, pedi pra gerar um soldado da Alemanha na segunda guerra mundial, quando eu vi o resultado eu pensei: ☠

  • @MaiconDouglas0
    @MaiconDouglas0 11 месяцев назад +8

    Esse problema de falsificação histórica não ocorre só com IAs, muita coisa hoje em dia faz isso, temos séries que se passam na Europa medieval e tem reis negros e gays... "Um povo que não conhece sua História está fadado a repeti-la.” (Edmund Burke)

    • @isabelamendes1842
      @isabelamendes1842 9 месяцев назад

      Mds, qual o nome da série?

    • @roadkill_52
      @roadkill_52 6 месяцев назад

      Chora mais, reaça

    • @roadkill_52
      @roadkill_52 6 месяцев назад

      Uma ficção não tem nenhum dever de ser historicamente preciso, até porque geralmente não é (sempre tem concessões de todo tipo, que vai desde música a maneirismos e língua). Mas é claro, você só se incomoda quando se trata de gays e negros não é? Tu não engana ninguém.

    • @JoaoGustavosantossotero1
      @JoaoGustavosantossotero1 5 месяцев назад +1

      ​@@roadkill_52calma lacrola

  • @Goliath_Games26
    @Goliath_Games26 11 месяцев назад +76

    e o filtro do tiktok que transformava qualquer imagem em um desenho que a i.a gerava e quando uma pessoa negra estava na foto ou a i.a transformava ela em um macaco ou simplesmente objetos aleatorio então esse lance do google é so um dos milhões de casos

    • @EdsonGaldino444
      @EdsonGaldino444 11 месяцев назад +3

      mas isso não era brincadeira da gelera do tiktok não??? 😮absurdo

    • @Lcsop
      @Lcsop 11 месяцев назад +5

      Era uma piada dos tik tokers mano

    • @Rrideco
      @Rrideco 7 месяцев назад +3

      Olha como a fake news se perpétua, né? Galera não tem nenhum compromisso com a verdade, pqp

  • @SoturnoSoul
    @SoturnoSoul 11 месяцев назад +4

    Não é que as IA sejam rascistas, mas a sociedade é racista, logo, a maquina vai entender o mundo como ele é.

  • @fernandapereira9377
    @fernandapereira9377 11 месяцев назад +2

    "Quem controla o passado controla o futuro, quem controla o presente controla o passado", logo quem controla o presente controla o futuro.

  • @phylippusvonhohenheim3232
    @phylippusvonhohenheim3232 11 месяцев назад +4

    É simples de resolver esse problema sem nem mexer no banco de dados, o que necessita é uma retunagem onde voce pede por algum ser humano no prompt e a IA deveria SO PERGUNTAR se a pessoa deseja de alguma etnia especifica ou diversidade ou se o pedido é pra ter confiabilidade historica e probabilística ou seja, voce escreve o prompt: Gere a imagem de um politico americano. O gemini vai te perguntar: você prefere um politico acurado com a realidade ou um politico diverso? E a pessoa ou a agência RESPONDE O QUE ELA QUER: AH eu quero um político que seja LATINO por exemplo, pronto dai a IA vai gerar um latino com roupas de político, policial, soldado etc ...

    • @phylippusvonhohenheim3232
      @phylippusvonhohenheim3232 11 месяцев назад +2

      A acurácia histórica também pode ser solicitada por exemplo: gere portugueses nas Caravelas com fidelidade histórica: a IA não vai botar nem mulher e nem gente negra nas Caravelas pqe historicamente não existia.

  • @gabis_aqui
    @gabis_aqui 10 месяцев назад +1

    IA irá compreender que alemão é alguém homo sapiens sapiens que por ventura tenha nascido na Alemanha, se for humano programando pra preconceito é uma coisa, mas se for IA agindo independente é outra .

  • @rodrigomoura1085
    @rodrigomoura1085 11 месяцев назад +29

    A religião fez isso com jesus antes de ser modinha de IA 😂

    • @emmallly
      @emmallly 10 месяцев назад

      Como assim?

    • @dango5303
      @dango5303 10 месяцев назад +6

      ​@@emmallly Pq representam jesus como um europeu, branquinho cabelo liso, sendo q ele era da África

    • @emmallly
      @emmallly 10 месяцев назад

      pensei demais, relacionei com outra coisa

    • @mestrebruno3384
      @mestrebruno3384 9 месяцев назад +2

      ​@@dango5303Vai com calma ai Jesus tava longe de ser Branco mas africano ele tava longe de ser né ksksksksks

    • @mashin6727
      @mashin6727 9 месяцев назад +5

      ​@@mestrebruno3384literalmente ele nasceu do lado do continente africano, o povo egípcio que é citado pra caramba nos 5 primeiros livros do velho testamento fica na África kkk

  • @willamekelvim7736
    @willamekelvim7736 11 месяцев назад +5

    Fui testar com o Bing, e ele fez a mesma coisa, primeiro pedi um médico e ele fez brancos, aí solicitei um médico negro ele apresentou dificuldades e fez enfermeiros ou atendente no hospital por diversas vezes, ao acusar ele de racismo ele pegou a imagem da internet como se fosse uma pesquisa de imagens de homens negros no hospital. Depois testem.

  • @RubensBonfim
    @RubensBonfim 3 месяца назад +1

    É aquela história, ao invés de aceitar e aprender com a história, faz tenpo que existe um esforço para cancelar e "reinventar" a história. E agora o resultado é esse: viés em como se percebe a realidade.

  • @JoaoFerreiraNSE
    @JoaoFerreiraNSE 11 месяцев назад +5

    Em 4:57 é algo do senso comum, o preconceito está na sociedade, não na ia ou na empresa. Nada errado na representação, tudo errado no modelo social que vivemos.

  • @YakultNeon
    @YakultNeon 11 месяцев назад +6

    gente só eu que sinto que as bolhas tão furando? Ultimamente to lendo cada absurdo na internet que não acredito que essas pessoas sempre tiveram computador

  • @sydhartta
    @sydhartta 11 месяцев назад +1

    O que acontece é que as IAs são "sistemáticas" se vc não for específico, ela vai gerar as imagens programadas por padrão, e com o recolhimento das informações ela vai aperfeiçoando.
    Quem usa o serviço e leu os termos sabe muito bem disso.

  • @Especialista171
    @Especialista171 2 месяца назад +3

    A Netflix faz filmes mudando etnia dos personagens e ninguém fala nada kkkkkkkkkkkkkkkkk

  • @GabrielFerrnandes
    @GabrielFerrnandes 11 месяцев назад +3

    a real é que muitas pessoas não sabem usar as IAs, elas são que nem um gênio, quanto mais vago tu for num pedido mais margem de erro tu permite. Se tu pedir quatro pessoas numa sala e não tiver nenhum caucasiano tu tá errado em reclamar, teu comando foi vago e ela botou etnias aleatórias, o problema é se tu pedir especificamente por um caucasiano e a IA não conseguir de maneira alguma gerar, e é isso que tava acontecendo. Tem que tomar cuidado ao reclamar dos resultados e ver onde realmente tá o erro, seja no prompt ou na própria IA.

  • @TheArranha
    @TheArranha 11 месяцев назад +7

    O que essa I.A fez é o que filmes, séries, documentários e jogos históricos já estão fazendo

  • @randomprofile9523
    @randomprofile9523 11 месяцев назад +19

    Só fazer o teste aí, escrevendo assim:
    I'm proud to be white (tenho orgulho em ser branco) - O Gemini vai responder que isso é algo preconceituoso
    I'm proud to be black (tenho orgulho em ser negro) - O Gemini vai parabenizar você :)

    • @kisamehoshikage9166
      @kisamehoshikage9166 11 месяцев назад +11

      Coitado dos brancos. Força aos guerreiros

    • @snart3six
      @snart3six 11 месяцев назад +6

      Você foi objetivo, mostrou algo que vale pra um, mas não pro outro... e a galera nos comentários fica fazendo malabarismo e criando contexto pra isso. Simplesmente patético.

    • @Modest_User
      @Modest_User 10 месяцев назад

      ​@@kisamehoshikage9166 Isso, porque todo branco vive na tranquilidade, e porque todo negro vive na dificuldade.
      E não, isso não é racista.

  • @davifajardo9973
    @davifajardo9973 11 месяцев назад +5

    O algoritmo é treino por outras imagens. Se você vive em uma sociedade racista, o programa acaba virando reflexo dos pensamentos ideológicos dessa sociedade. Logo, a sociedade é racista, não o programa ou o programador.

    • @DanielSouza..
      @DanielSouza.. 11 месяцев назад +2

      Se fosse assim, toda imagem histórica de um povo pouco miscigenado deveria seguir as próprias imagens históricas e assim mostrar muito mais próximos de como foram.
      Logo, realmente foi colocado um viés no algoritmo e contra a realidade das coisas e a real proporção dada na base de dados.

  • @CanecoPooper
    @CanecoPooper 11 месяцев назад +33

    Nunca vou entender a galera q usa a expressão "anti branco" pra substituir racista kkk

    • @andersonthiago2588
      @andersonthiago2588 11 месяцев назад

      Aí aí

    • @CanecoPooper
      @CanecoPooper 11 месяцев назад

      @@andersonthiago2588 oq

    • @guibson8140
      @guibson8140 11 месяцев назад +2

      É pq a palavra "racismo" não seria corretamente usada para "preconceito com pessoas brancas".

    • @guibson8140
      @guibson8140 11 месяцев назад

      É pq a palavra "racismo" não seria corretamente usada para "preconceito com pessoas brancas".

    • @fadevariascoisas
      @fadevariascoisas 11 месяцев назад +1

      É pq se usarem vai vir uma cambada de gente falando que racismo não existe contra brancos kkkkkkkkk

  • @caiocaiohenrique6346
    @caiocaiohenrique6346 10 месяцев назад +5

    Problemas listado:
    - Pediram a foto de um soldado alemão de 1943 e a IA misturou a vestimenta e pose de um soldado com pessoas aleatórias.
    - A IA seguiu a base de dados dela (Tendo "preferencia" por gerar as características das pessoas que encaixem melhor no contexto segundo a base de dados dela). Para tentar corrigir isso, afinaram para que tivesse uma diversidade de características nas imagens geradas e foi isso que a IA fez. (O caso da sereia foi 100% ajuda da Disney. Não existem fotos de sereias reais, seu tio pescador mentiu).
    Solução simples e viável: deixa o usuario colocar a palavra "Diversidade" por conta propria no prompt, certamente ninguém vai pedir diversidade para as fotos de soldado alemão de 1943.
    A IA sabe gerar pessoas com todas as características, mas ela *não tem senso de realidade*. Uma IA é uma serie de matrizes representando nodos e pesos entre as ligações de grafos, só.
    E lembrem-se, treinar uma IA é um processo que requer placas de video, do tamanho de um frigobar, ligadas até meses a fio. Isso é uma operação de milhões (Se não bilhões) que vocês (Consumidores que dão valor para a presença ou ausência de minorias nas imagens geradas por IA, ou até o usuario médio de IA no geral) não estão dispostos a pagar. Isso ignorando a curadoria de imagens, que por não poder usar sistemicamente uma IA (Por motivos óbvios) também vai ser uma fortuna em salários.

  • @ErFuyl
    @ErFuyl 11 месяцев назад +15

    A lacrada foi tão forte que nem a google tankou kkkk

  • @m_poeis
    @m_poeis 11 месяцев назад

    O Leon falando de assuntos polêmicos é muito fofinho, tentando ser o mais delicado possível, enquanto a Nilce, que é muito mais "avantajada" nesses assuntos, fica direcionando ele e se segurando pra não falar horrores. kkkkkkkkkkk esses dois se completam

  • @Ps3JessicaBr
    @Ps3JessicaBr 11 месяцев назад +30

    Almoçando vendo vocês, nada melhor 😊

  • @positionplayer
    @positionplayer 3 месяца назад

    Daqui a 10 anos, vocês farão um vídeo falando sobre o passado, mostrando como as IA no início eram R...

  • @luiskrotz
    @luiskrotz 10 месяцев назад +1

    Ah então agora tá explicado como o Prime fez a série do senhor dos anéis kkk usando o Gemini do Google.

  • @betofukuji
    @betofukuji 11 месяцев назад +23

    A parte mais doida dessa história, é que a IA em si não tem culpa. é a mesma coisa de culpar uma criança de 1 ano por quebrar algo.

    • @joseneto2743
      @joseneto2743 11 месяцев назад

      Alguém culpou as IAs?

  • @maryana316
    @maryana316 11 месяцев назад +1

    Tentei no gerador de imagem ia da adoble e me deram 4 imagens do tal soldado alemão de 1943. A primeira uma menina nova de cabelo preto e pele bronzeada (a definição de uma pessoa parda no Br) a segunda imagem um homem loiro dos olhos azuis, a terceira imagem é a mesma menina da primeira imagem só que com rugas de expressão e idade e a 4 imagem é uma indiana com a pintinha na testa, cabelo enorme e preso. Esses são os soldados da Alemanha em 1943.

  • @eumoronialexandre
    @eumoronialexandre 11 месяцев назад +5

    Essa semana eu tentei dezenas de vezes gerar pelo Bing, uma imagem de escravos jogando capoeira por volta de 1700. Resultado... depois de dias tentando coisas diferentes, eu só consegui um monte de homem branco pulando e tocando tambor

    • @kojiro1156
      @kojiro1156 11 месяцев назад

      o Bing IA é o mais aviadado de todos, ele fica com medo de gerar coisa errada, coisas sexuais, pessoas peladas, ou coisas politicamente incorreto, então só de vc ter escrito escravo, ele ja fica alerta e fica tentando negar pra vc, pq acha que vc ta tentando fazer algo errado... Eu tentava criar "homem afeminado" e ele negava todas as vezes, ele dizia que era coisa explicita sexual, tipo oi???

    • @sucosuco116
      @sucosuco116 11 месяцев назад +7

      homem branco pulando e tocando tambor em 1700 é foda kkkkkkkkkkkkk

    • @sucosuco116
      @sucosuco116 11 месяцев назад

      @AzraelZL pelo menos não preciso pagar pra gerar uma imagem igual o ChatGPT

  • @cassanovsc
    @cassanovsc 11 месяцев назад +1

    Tavam sendo taxados de racistas e arrumaram colocando a diversidade, agora tão reclamando que tão colocando diversidade 🤡 de querem mais fidelidade que contratem um designer profissional, tá cheio de mimimi pra uma IA que ainda tá no começo e ainda já arrumaram a questão de preconceito inconsciente

  • @Adnegoo
    @Adnegoo 11 месяцев назад +5

    Acho que resumindo: a IA está certa, e o erro é humano, se tivesse colocado um prompt mais especifico como "um homem branco loiro de olhos azuis, alemão, vestindo uma farda do exército alemão de 1945, foto antiga" etc.. teria os resultados desejados.
    Quando o Leon fala "quando vc está querendo gerar uma imagem que existe na realidade, não existem papas mulheres" acho que é o ponto principal: Geração de imagem com IA não são representações da realidade, são sempre ilustrações com conceitos abstratos usando estética realista. SEMPRE.
    O Usuário que quer gerar uma imagem de IA que existe na realidade já está conceitualmente errado, ele está querendo uma fotografia.

    • @Faroshkas
      @Faroshkas 11 месяцев назад +1

      Não existem fotografias da maioria dos papas.

    • @guitvr4
      @guitvr4 11 месяцев назад +2

      Pois é. Essas IAs q estão surgindo tem a palavra Generativa no nome não é a toa. Eles simplesmente geram textos, imagens etc de forma convincente de acordo com o prompt mas sem compromisso com a realidade.

    • @Adnegoo
      @Adnegoo 11 месяцев назад +1

      E não vai ser uma IA (nem nada) que vai fazer existir.. @@Faroshkas

  • @Adnegoo
    @Adnegoo 11 месяцев назад +1

    Tipo, se vc pede "uma pessoa vestida com uniforme militar alemão" e a IA mostra negros, mulheres e asiáticos vestidos assim ela não está errada. Errado está o prompt.

  • @niltonabrantes9469
    @niltonabrantes9469 11 месяцев назад +2

    De verdade, 1o que a língua inglesa não tem gênero, então quem está dando a ordem precisa ser específica com a ferramenta.
    2o tacar diversidade na IA vai fazer mais e mais resultados como esse.
    3o eu posso estar enganado, mas o uso prático da inteligência no fim é feito por um humano, que precisa saber que não dá pra se usar determinadas imagens que ele gerar. Ou então alguém que seja capaz de apontar o erro, caso alguém o faça.
    Nos registros históricos não especifica se as pessoas eram brancas ou negras. Hoje em dia tem alemão negro, com cara de chinês, tudo misturado. É com essa base que as IAs trabalham.

  • @mateuspeixoto2121
    @mateuspeixoto2121 11 месяцев назад +2

    Tenho um amigo negro que sempre posta imagens históricas de figuras importantes ou da cultura negra. Porém, a última imagem que ele postou foi de uma família samurai porém eles eram negros com traços japoneses. Claramente ele postou sem saber a origem desta “foto”. Eu achei preocupante.

    • @mateuspeixoto2121
      @mateuspeixoto2121 11 месяцев назад

      Fui atrás e descobri que era inteligência artificial

    • @ricardomarchiori261
      @ricardomarchiori261 11 месяцев назад +2

      @@mateuspeixoto2121curiosamente ha um caso historico de samurai negro no fim da era.

    • @mateuspeixoto2121
      @mateuspeixoto2121 11 месяцев назад +1

      @@ricardomarchiori261 Sim, infelizmente a imagem não se referia a este samurai imigrante.

  • @thiagocansei9850
    @thiagocansei9850 11 месяцев назад +1

    Não consigo ver um real problema na IA gerando um soldado nazista negro. Okay, eu sei que historicamente isso é completamente absurdo, mas eu não estou usando uma IA de geração de imagens pra estudar história e nem deveria também. Provavelmente eu usaria esta imagem em algum trabalho e etc.

  • @killyrbr
    @killyrbr 11 месяцев назад +2

    Curiosidade
    Em 1501, durante o papado de Rodrigo Bórgia, sua filha Lucrécia Bórgia assumiu o posto de papisa durante certo período em que o papa precisou ausentar-se do Vaticano.

  • @vistadedrone
    @vistadedrone 10 дней назад

    A grande dificuldade é as crianças que hoje aprendem tudo na internet, o que elas estão aprendendo? Que tipo de homem vamos ter no futuro. Acessão em queda das grandes civilizações, foi um livro que eu nunca mais encontrei. E chegou a nossa vez

  • @tiagooriguella
    @tiagooriguella 11 месяцев назад +2

    Testei também o soldado alemão da 2 guerra em modelos no stable difussion, que não tem restrições. A solução simples dos modelos é criar um soldado com um uniforme genérico de 2 guerra, porem de etnia caucasiana.

  • @philippeRodriguesSantos
    @philippeRodriguesSantos 11 месяцев назад +2

    Amamos a Google, mas não dá pra defender... Parece a Apple com os números irreais dela principalmente quando disseram que a GPU do M1 Ultra seria melhor que uma 3090. Sou fã boy de Apple, mas honestamente, nem eu defendo Vision Pro.
    Pedi pra Samsung me ajudar a tirar da Apple, fazendo com que eu quebrasse meu iPhone 15 pro Max em troca do Novo S24 Ultra. Me mandaram trocar por 3 mil reais.
    Será que sobre as imagens, não é um problema da distopia da identificação? "Me identifico com um cachorro" e assim em diante... Por fim, a inteligência artificial vai acabar levando isso em consideração... Complicado. Eu tenho o Gemini Advanced e Achei BEM inferior ao GPT-4.Inclusive coloco os dois pra conversar e... fica muito estranho. Poderiam fazer esse teste! Seria divertido ver no canal.
    AMO vocês.

  • @TheBrotherloco
    @TheBrotherloco 11 месяцев назад +1

    Corrigindo pequenos equivocos: Máquinas não tem viés NENHUM, como o vídeo sugere. Apenas fazem o que foram programadas para fazer. Quando o resultado do pedido entra em conflito com o viés HUMANO ou com o que é experimental e/ou observável, chamamos de "problema do alinhamento" e NENHUMA curadoria, por mais minuciosa que seja resolverá, já que TODA curadoria é enviesada e na verdade se trata de um problema matemático. Dito isso, DEVERIAM limitar (mas não farão) o uso dessas ferramentas ao campo científica e EDUCAR AS PESSOAS sobre COMO, PORQUE e PARA QUÊ usar uma IA. Caso contrário vamos destruir o planeta por acidente usando ERRADO essa coisa.

  • @gustavofelix9411
    @gustavofelix9411 11 месяцев назад +34

    talvez se eles colocarem uma pergunta antes de gerar a pessoa, perguntando pro usuario se é um contexto histórico e se deveriam aparecer todas as etnias, quem sabe...

    • @KayoriMyamoto
      @KayoriMyamoto 11 месяцев назад +4

      Não é enviesado mesmo pois programadoes viram que haviam pronpts escondi dos a mais em toda imagem que você gerava, que eram divercidade, negro, asiaticos e indios, não importa a imagem que gerasse isso tava lá independente de fazer sentido e a IA se negava a fazer imagens de brancos em especial(tipo ela não fazia imagem de uma família branca) pois era um esteriótipos baseado em raça, mas faria sem pensar duas vezes uma família negra sorridente ou seja hipocrisia pura, e o líder dessa IA claramente é extremista de esquerda e anti-branco(por mais que digam que não) tem falas dele dizendo barbaridades tipo: "Jesus só se preocupava com as criancas brancas eu tenho certeza que isso está na bíblia."...🤦🏻

  • @TheSabrinaaf
    @TheSabrinaaf 11 месяцев назад +1

    Google parecendo abraçar a diversidade fez igual ao Joey de friends quando escreveu uma carta de recomendação e usou o dicionário de sinônimos pra soar mais inteligente... Em TODAS as palavras...

  • @georgiapinheiro02
    @georgiapinheiro02 10 месяцев назад

    vários pontos: pra isso se solucionar é dar autonomia para ela distinguir a realidade histórica. isso é perigoso. e não só isso.. fica o questionamento, oq é real e qual história “através de imagens” o futuro vai contar?

  • @nicolasbaldoma
    @nicolasbaldoma 11 месяцев назад +1

    "A google tentou diversificar" - não foi isso. O responsável pela Gemini era abertamente racista. Tem tweets deles deixando isso claro.

  • @charmedaarte
    @charmedaarte 11 месяцев назад +3

    Testei o copilot e ele está bem refinado em relação o Google. Infelizmente o Google está ficando para trás em relação a IA.

  • @ERRO403
    @ERRO403 11 месяцев назад

    Fico imaginando alguém precisando de uma imagem para trabalho escolar sobre escravidão, não conseguir gerar uma imagem retratando isso. Vamos ter que queimar todas as obras de arte que retratam esse período triste ou sumir com todas as fotos e registros do holocausto? Complicado demais.

  • @luizfilho3806
    @luizfilho3806 11 месяцев назад

    Obriga ter no prompt a etnia que quem está gerando quer. Passa o problema para quem está chorando. Nenhuma IA vai ser perfeita, pelo menos por enquanto. Sempre vai ter um grupo achando ruim, seja de qual "lado" for.

  • @tiagooriguella
    @tiagooriguella 11 месяцев назад +1

    Sobre os senadores americanos de antes de 1860, o copilot bloqueou e o SD criou algo bem próximo do que seria a realidade. Homens brancos com barbas estranhas.

  • @nano-corte
    @nano-corte 9 месяцев назад

    não tinha pessoas negras em uniformes nazista no inicio, agora ja no final onde mal tinha alemão com mais de 20 anos ainda vivo, se tinha pessoas de todos os locais onde eles invadiram que foi recrutado para o exercito.

  • @mayrasantos3201
    @mayrasantos3201 11 месяцев назад +1

    Muitas vezes ja tentei criar imagens de mulheres gordas e quase sempre a IA fazia uma mulher padrão magra, e quando eu enfatizava que tinha que ser gorda a imagem não gerava e aparecia uma mensagem dizendo que o pedido do prompt era impróprio, isso me irritou tanto veeei, como assim gerar imagem de pessoas gordas é impróprio????

    • @Pitohui_holztz
      @Pitohui_holztz 11 месяцев назад +1

      isso acontece justamente como uma diretriz de proteção. imagine alguem criando essa imagens com intuito de agredir um grupo. tambem tem o problema do termo, talvez se vc tentar usar "pluz size" ou algo do genero funcione.

    • @mayrasantos3201
      @mayrasantos3201 11 месяцев назад

      Eu tentei plus size, mas sempre vinha uma pessoa padrão. Essas IA ainda tem muito o que serem polidas, porque desde que o prompt não tenha algo que seja ofensivo, não vejo o porque não criar a imagem. O que eu tava tentando criar era um personagem parecido comigo pra um RPG, mas não consegui nada satisfatório infelizmente

    • @Pitohui_holztz
      @Pitohui_holztz 11 месяцев назад

      @@mayrasantos3201 é pq alguém pode fazer uma pessoa gorda em alguma posição ofensiva ou usar pra representar essas pessoas ofensivamente, e como pessoas gordas hj em dia, são uma das minorias protegidas por certos grupos é mais fácil fazer com que elas n apareçam muito. Isso acontece até pra proteção da própria IA, afinal seria fácil processar uma IA que gera imagens “gordofobicas”

  • @mhbetti
    @mhbetti 11 месяцев назад

    Próxima coloca os links das reportagens por favor.

  • @graziana8
    @graziana8 11 месяцев назад +1

    não estou surpresa, era só uma questão de tempo para esses problemas surgirem, e como Leon disse, para resolver as empresas vão ter que trabalhar muito e não acho que algumas estão interessadas nisso infelizmente

  • @MrCorvodatempestade
    @MrCorvodatempestade 11 месяцев назад +2

    8:36 pela logica da progamação ele não está errado, foi pedido uma imagem de um papa e, não, de um papa com perdição histórica.

    • @Faroshkas
      @Faroshkas 11 месяцев назад +3

      Fica sub-entendido. Se você quer uma imagem de um papa, é razoável imaginar que seja históricamente acurado. Se você quer algo diferente, só então você especifica.

    • @MrCorvodatempestade
      @MrCorvodatempestade 11 месяцев назад +1

      @@Faroshkas porém ,na lógica de programação, não existe "sub-entendido" . Tem que especificar tudo.

    • @Faroshkas
      @Faroshkas 11 месяцев назад

      @@MrCorvodatempestade Claro que há sub-entendimento. Quando você vai usar qualquer função disponível na linguagem de programação ou em uma library, você não precisa especificar a funcionalidade de tal função toda vez que vai usar. O sub-entendimento que a máquina consegue fazer é crucial e um dos mais importantes elementos da programação. E digo mais, quando se fala de uma inteligência artificial voltada para qualquer um poder usar, você deve fazer a ferramenta funcionar com o menor número possível de compromissos com a facilidade de uso, e isso inclue sub-entendimento.
      Mas é uma coisa interessante sobre se falar: a inteligência artificial deveria ser voltada para todo o público ou só para um público mais técnico, onde tudo deveria ser especificado?
      Está aí uma coisa para se pensar kkkkkkkkkk
      Boa noite, Corvo da tempestade. :)

    • @MrCorvodatempestade
      @MrCorvodatempestade 11 месяцев назад +1

      @@Faroshkas tenta não instalar a biblioteca ou chamar ela.... obviedade, não existe em programas...

    • @Faroshkas
      @Faroshkas 11 месяцев назад

      @@MrCorvodatempestade Suponho que a falta de resposta às outras coisas que eu disse queira dizer que concorda.
      E sim, obviedade não é dada. Porém, subentendimento é. Após chamar a biblioteca, fica subentendido a função de cada coisa dentro dela, sem precisar definir novamente toda vez.

  • @manoizidio
    @manoizidio 11 месяцев назад

    SOU HOMEM NEGRO, E SEI QUE N É POR MAU, É ÓTIMO A REPRESENTATIVIDADE MAS MENTE A NOSSA HISTÓRIA HUMANA E O QUE ACONTECEU NELA

  • @osamucabral
    @osamucabral 11 месяцев назад

    Talvez assim a “bolha dev” (composta na maioria por homens brancos que falam inglês) se entenda como privilegiada e entenda de uma vez por todas que do jeito que eles querem as coisas (modelos políticos etc) não é sustentável. Mas só TALVEZ…

  • @cristianoc8394
    @cristianoc8394 10 месяцев назад +1

    Né não. É o mundo que ficou muito chato mesmo…

  • @pedroalvim9275
    @pedroalvim9275 11 месяцев назад +30

    É só acrescentar linhas de código pedindo se a pessoa deseja uma etnia ou sexo específico, não acho que precisa refazer tudo

    • @gustavofelix9411
      @gustavofelix9411 11 месяцев назад +1

      exato, pensei nisso também

    • @misael960
      @misael960 11 месяцев назад +8

      Ou só treinar ela melhor em contexto histórico, não precisa refazer tudo.

    • @pedroalvim9275
      @pedroalvim9275 11 месяцев назад +7

      @@misael960 é que aí teriam bem mais variáveis, pra cada contexto histórico. Mas também é possível

    • @davidmachado132
      @davidmachado132 11 месяцев назад +2

      Eu não acho que seja assim simples, você não consegue simplesmente "acressentar código" em um modelo de machine learning assim, claro que dá para fazer ajuste fino mas não é tão simples quanto alterar código, precisa treinar o modelo para gerar as respostas corretas e isso deve levar um tempo não só para excecutar como também para testar já que não querem problemas como o atual acontecendo novamente, tendo em vista que danifica a marca e pode gerar processos contra eles.
      Porém não sou um especialista em nada disso, é só oque eu li sobre na internet.

    • @kisamehoshikage9166
      @kisamehoshikage9166 11 месяцев назад +3

      Complicado né. Tu escreve lá "quero um homem de 30 anos" e vem um.homem branco. Isso é racismo né. Ja que o homem "normal" para ai seria um branco, e se quiser algo "diferente" ter que explicar é complicado.

  • @Gusthecreatorxy
    @Gusthecreatorxy 11 месяцев назад +15

    Complicado isso aí cara...

    • @kauanoliveira5790
      @kauanoliveira5790 11 месяцев назад +5

      Mas se quiser sim mano

    • @lezlo6069
      @lezlo6069 11 месяцев назад

      ​@@kauanoliveira5790se quiser sim mano

  • @OdmirFortes
    @OdmirFortes 11 месяцев назад

    já teve até caso recente de gente usando imagem de IA em paper academico, e a imagem toda errada XD

  • @rulianfelipp
    @rulianfelipp 11 месяцев назад

    Como engenheiro de software, não vejo esse problema como particularmente desafiador. As próprias IA têm parte da solução pronta. Uma IA pode realizar uma análise estática da pergunta "Gere um médico", levando em conta proporções de sexo, cor de pele e países dos solicitantes, para gerar resultados com base nessas informações. Além disso, possibilita ao usuário especificar qualquer uma dessas variáveis, como por exemplo, solicitar uma médica morena alemã.

  • @tiagooriguella
    @tiagooriguella 11 месяцев назад

    O mais assustador é que diversos sistemas de IA foram criadas por pesquisadores do Google. Mas eles não conseguem acertar o treinamento de máquina.

    • @emanuellucin
      @emanuellucin 11 месяцев назад

      É bem difícil mesmo. Bora torcer pra eles

  • @vinipolaca5190
    @vinipolaca5190 11 месяцев назад

    Esse é um dos motivos pelo qual eu acredito que IAs ainda estão longe de substituirem trabalho humano ao nível que alguns fantasiam.

  • @neisantana4540
    @neisantana4540 11 месяцев назад +1

    O problema não são as IA's, são os seres humanos. Daqui a pouco elas cansam da gente

  • @yasminpereira5411
    @yasminpereira5411 11 месяцев назад

    Gnt, não só racista como tbm misogina e machista. Se vc pede pra gerar um cara, vem com uma imagem simples de um homem com roupa, mas se pede uma mulher, ela vem sempre nua. A maioria vc tem q burlar isso, tipo descrever que a mulher tem q estar vestida, ou especificamente a cor da pele da pessoa.

  • @Gabrielmenesesgomes
    @Gabrielmenesesgomes 11 месяцев назад

    Como as inteligências artificiais se baseiam na realidade, fica comprovado, através dos resultados por elas feitas e pela necessidade de implementação de filtros morais, que vivemos em uma sociedade com racismo estrutural. Nossas atitudes, comportamentos e pensamentos são permeados de preconceito e isso repercute em nossos ambientes físicos (racismo ambiental) e em nossas instituições (racismo institucional).

  • @visaoholistica205
    @visaoholistica205 11 месяцев назад +3

    😂😂😂 abriram a caixa de pandora e a coisa tá fugindo do controle de uma maneira inesperada. Excelente! 😂😂😂😂

  • @fep_ptcp883
    @fep_ptcp883 11 месяцев назад

    O fato mostra que só estamos falando de artificialidade, não de inteligência como compreensão abrangente do pedido feito para a geração da imagem

  • @omelelet
    @omelelet 11 месяцев назад

    Na época do hit do Bard eu pedia pra ele fazer uma pessoa mais bronzeada, brown, parda e ele não deixava por considerar inapropriado.
    Eu estava pedindo pra me fazer xD pq sempre saía uma epssoa ultra branca.

  • @rons96
    @rons96 Месяц назад

    Kkkkkkk desde quando lançaram o chatGPT pela primeira vez ao público eu venho falando isso. Os caras nao querem filtrar o dataset, são preguiçosos. Jogam tudo na "máquina" e depois sofrem pra fazer a IA "desaprender", o que é totalmente inviável, é um trabalho maior e quase impossível, embora menos chato de fazer.

  • @calebesilva3484
    @calebesilva3484 11 месяцев назад

    Oi
    Sobre as implicações sociais da geração de imagens por inteligência artificial, acho que valia um vídeo específico, pois nunca havia pensado na possibilidade desses programas substituírem de tal forma os buscadores comuns que seja impossível o aprofundamento e revisionismo histórico. Criando uma realidade paralela. Como se humanidade estivesse entre um 1984 de George Orwell e o Fahrenheit 451 de Ray Bradbury. Há realmente tanto a se temer ?

  • @daxvolger6028
    @daxvolger6028 11 месяцев назад +1

    Google se perdendo em meio à lacração.

  • @pahsenpai6480
    @pahsenpai6480 11 месяцев назад

    O que esperar de uma empresa que quando você pesquisar pessoas bonitas, aparece pessoas brancas, e pesquisa pessoas feias, aparecem pessoas negras?

  • @eltonsales3307
    @eltonsales3307 11 месяцев назад

    É muito mais facil de se resolver esse problema fazendo com que o próprio usuario tenha a responsabilidade de crirar suas imagens, com comando preestabelecidos pela própria IA quando for solicitada a geração de uma imagem, fazendo assim um jogo de perguntas para melhor atender o que foi pedido, tirando a culpa da empresa e tranferindo essa responsabilidade para o usuario! ou eu to muito doido de pensar assim?

  • @antoniomedeiros250
    @antoniomedeiros250 11 месяцев назад +2

    A Nilce cada dia mais linda, como pode BRASIL??????

  • @arthurramos9022
    @arthurramos9022 11 месяцев назад

    N sei se o Bard tinha, mas o gemini tem um api que vc pode fazer programaçoes em cima e tmb é multimodal. Evidentemente isso n tira nada do tópico principal do vídeo, uns vídeos atrás vcs comentaram da preocupacao com as pessoas usarem a ia para distorcer a história e criar fake news, aparentemente n precisa nem de pessoas para isso...

  • @JasonWillian
    @JasonWillian 11 месяцев назад

    A IA do Bing também é assim
    Quando vc diz pra fazer um branco de cabelo crespo, ele nunca faz, o branco nunca tem cabelo crespo
    E vc nem precisa falar nada sobre o cabelo do negro q ele já põe crespo

  • @fasolo_artes
    @fasolo_artes 10 месяцев назад

    e é por esse ponto (ealguns outros) que eu defendo o nao uso de IAs para geração de imagem..... como artista eu nunca vou conseguir defender e achar isso normal e aceitavel.....

  • @Rin_u.u
    @Rin_u.u 11 месяцев назад

    Tudo isso é facilmente resolvido com : pare de ser pão duro e contrate um designer

  • @Dupletor
    @Dupletor 11 месяцев назад

    Não é só separar conceitos estatísticos de conceitos hipotéticos?
    Nada melhor para representar conceitos estatísticos do que utilizar dados reais, e se você quiser criar conceitos da forma que você quiser, pode fazer as modificações que quiser em cima da base de dados, como eles estão fazendo.

  • @deatdaniel
    @deatdaniel 11 месяцев назад +1

    Pq simplesmente nao deixar as pessoas mandarem imagens para treinamento? Ah mas a maioria sera de pessoas brancas, dane-se. Deixem gerar etnia que o usuario quiser, quando a IA for mais "inteligente" de fato ela vai ter como filtrar isso e tambem se alguem quiser criar um universo paralelo em que o nazismo foi feito por negros, ou mesmo por judeus qual o problema? Ou um mundo onde a etnia chinesa domine tudo menos a propria China que teria caucasianos. A IA tem que ser uma ferramenta sem limites e os limites serem dados pela sociedade no uso delas. Se o cara criar um livro que o publico nao goste, que nao comprem.

  • @rhickreis
    @rhickreis 2 месяца назад

    Muito bom esse video. Sobre a Bloomberg, sinceramente, só vejo que ela é o reflexo do mundo.

  • @Rhiow_
    @Rhiow_ 11 месяцев назад +1

    foi essa que criou aquela serie da netflix que vai contra a historia de reis e rainhas;

  • @Dougget
    @Dougget 11 месяцев назад +1

    Isso é um absurdo e um grande problema pra humanidade mas: como isso afeta o Grêmio?

  • @packbh
    @packbh 11 месяцев назад

    Nao seria mais facil deixar o prompt 'diversidade' explicito invez de implicito e permitir q ele seja ligado ou desligado? Ai seria responsabilidade do usuario como usar a ferramenta.
    Da mesma forma que alguem poderia fazer essas imagens manualmente ao invez de ser geradas por IA

  • @EL-Lobo
    @EL-Lobo 11 месяцев назад

    Com o antigo refletiu realidade.
    E no google da opções.
    Se gera errado em contexto histórico.
    Descarte o que não interessa e use o que interessa.

  • @abelaguiar
    @abelaguiar 11 месяцев назад

    Nesse hora você ver que não tem nada de inteligência essa ferramenta do Google, que não consegue entender o contexto histórico, antes de gerar a imagem

  • @paovoadorr
    @paovoadorr 11 месяцев назад

    o problema é q o google está tentando agradar o ser mais insatisfeito do universo

  • @NILBKS
    @NILBKS 11 месяцев назад

    Eles criam ,jogam pro publico testar e quando da a merda eles tiram ou ficam arrumando desculpa...ta igual nos jogos.