É preciso lembrar que quem culpa os tais 'algoritmos' ignora que eles não são produzidos do além, mas sim por pessoas. E o viés ideológico dessas pessoas faz toda diferença.
Na verdade as Inteligências Artificiais (IAs) utilizam em seus dados de treinamento dados reais. Se os dados reais tiverem algum viés ideológico, preconceito ou qualquer outro tipo de problema, o algoritmo irá replicar. Por isso, quem treina as IAs precisam tratar os dados usados no treinamento para combater esse tipo de problema.
@@filipealmeida9397 ainda sim, na minha opniao, não acho que o problema foram as fontes duvidosas, eles sabiam o que tava fazendo, a google nao é nada pequena,em algum momento do vídeo o próprio lion até cita o fato da Google querer um gerador de imagem mais "diverso". Preferiram lacrar a entregar um produto convincente.
Uma coisa muito importante é o prompt que representa a camada encapsuladora da IA Generativa. Tanto o Bard (que agora se chama Gemini), quanto o chat GPT e outros possuem um prompt para justamente tentar limitar certos tipos de resposta. O problema é que é super complicado fazer um prompt que seja muito abrangente. Então não necessariamente precisamos trocar a base de dados, podemos através de engenharia de prompt criar um ideal
@@wendel8350 na verdade eles viram que os dados são preconceituosos, e isso é um fato. Preconceito é o que? Crime. Logo tem que ser tratado. O problema é a gambiarra para tratar isso.
Cara, existem mais negros em sub empregos sim, é apenas um reflexo da vida real, simples, não é racismo, é apenas a vida, os negros na maioria dos países ainda sofrem com consequências da escravidão
@@alcrian8627 não estou comparando o chat gpt e o gemini e sim tudo em geral a maioria das coisas o Google perde por outras empresas de IA isso é bem claro, por que o Google ta atrasado nessa área inclusive ta uma piada esse criador de imagens do Google a OpenAI a nova IA de vídeo da uma surra em todas a Sora pelo visto vai revolucionar essa área
@@joprogamer8903Amigo, pelo visto você não atua muito no campo da IA. Realmente, o Sora é o que temos de melhor em geração de vídeo (não saiu pro público geral, ainda). Mas, o foco do Gemini não é esse. Se você trabalha com IA, sabe o quão referência Gemini é pra muita coisa. O ChatGPT é uma IA de modelo de linguagem, ou seja, ele foca em palavras. Ele é horrível pra cálculos ou qualquer outra coisa que não seja relacionada à linguagem. Gemini, por outro lado, é uma junção de vários projetos de IA do Google. Ele faz cálculos corretamente, ele corrige código de programação corretamente (inclusive, faz sugestões de otimização). O Google tá anos luz na frente do que o ChatGPT oferece.
Sou graduando em ciências sociais na universidade estadual do sudoeste da Bahia. Minha Tese terá base nas relações entre IA, relações étnicas e a vida de artistas. É muito massa que frequentemente eu pego material com os videos de vcs ❤️
Nao tem sentido vc trabalhar em uma tese sobre um assunto que vc nao sabe como funciona. Digo isso, pois acho dificil que com sua formaçao vc entenda alguma coiaa da matematica envolvida em redes neurais.
o problema dessa IA não é que ela simplesmente se RECUSA a gerar imagens de pessoas brancas, em praticamente qualquer contexto mesmo que você peça especificamente por isso
Kkk e eu querendo fazer uma bala atingindo um vidro no do Bing e cara toda vez a bala ficava de pé e eu insistindo escrevendo de todo modo e ele preferiu fazer uma bala atingindo outra bala em pé do que só fazer uma bala na horizontal passando pela tela kkkk que era só isso que eu queria
imagina empresas e pessoas usando essa ia pra estudos ou coisa parecida e pedem um soldado alemão em 1943 e a IA só consegue gerar pessoas asiáticas e negras@@felixnotthecat4249
acredito que o problema não seja necessariamente que a IA seja racista ou preconceituosa, tem dois problemas ai, o primeiro é a geração de informações falsas que foi apontado com o caso dos senadores americanos por exemplo, a outra é querer que a IA gere diversidade quando a base de dados dela não é diversa. Infelizmente nós negros não estamos na maior parte dos cargos de destaque, digo isso falando do Brasil por exemplo, há uma grande maioria de médicos, engenheiros, juízes brancos em contrapartida cargos de menor destaque como faxina, empregada domestica, limpeza, etc, são cargos onde pessoas negras ocupam em sua maioria, ou seja se a base de dados dessas IA's é essa, isso indica na verdade um reflexo de nossa sociedade e não um enviesamento necessariamente, ou seja precisamos mudar a sociedade como ela funciona e não os resultados que uma IA apresenta.
Errado. Quando vc pede pra ela fazer imagem de pessoas que existiram brancas como George Washington transforma ele em negro. Se vc pesquisar "homem forte branco" ela fala que não pode gerar pois é algo racista, se vc pesquisar "homem negro forte" ela vai gerar normalmente. O único racismo dessa IA é contra pessoas brancas.
Bom mas realidade do EUA e outra la diferente mente do Brasil e por incrível que pareça tem muito mais pessoas negras em cargos de destaque que no Brasil que um pais incrivelmente racista
Uma coisa que te talvez vcs não tenham notado por não serem tão inteirados em assuntos raciais: quando solicitado para a IA para gerar imagens de várias etnias ela provavelmente não gera pessoas brancas pq já o preconceito de que apenas o não branco é uma etnia e o branco seria o "padrão". Esse tipo de preconceito com certeza está nos dados usados para treinamento da IA
Se eu não me engano, no online do Call of Duty World War 2 de 2017, você também podia criar seus soldados alemães sendo mulheres negras, o que era totalmente bizarro e tirava um pouco da imersão de estar jogando um jogo da segunda guerra mundial. No Battlefield V também se não me engano da para ser uma mulher asiática no time alemão...
Eu sei mas tem negro que quer se sentir como um soldado na segunda guerra. Eu também acharia daora " e se os soldados fossem negros" e refletir um pouco. Precisa olha pra todos os lados
Bom lembrar que em 2015 o Google fotos identificava pessoas e coisas. Na época uma mulher negra foi classificada como GORILA e o Google excluiu o termo de dentro do app.
Diversidade de maneira forçada dá isso aí, quando os dados já vem com viés, se você não trata de forma certa acontece exatamente isso, bastar mudar 1 parâmetro errado que surge coisas bizarras como essa
já pararam pra pensar que as histórias de princesas da Disney são revisionismo histórico? Tipo as histórias originais não eram aquelas, mas hoje todo mundo só lembra delas, as lições que queriam passar no passado com elas se perderam ou estão se perdendo
@@Mr_Leo_DSeu tava pensando mais no sentido do registro do conto e não sobre elas guardarem algum fato da história, algo mais do tipo "oque essas histórias ensinavam quando foram escritas?" ai quando alguem fala a data em que foi escrita a pessoa lembra do da disney e não da história original e fica com uma impressão errada de qual era a verdadeira mensagem
8:16 Apenas um pequeno comentário: pode ser que já tenham existido sim Papas negros, como Vítor I (189-198), Melquíades (311-314) e Gelásio I (492-496). Porém, não é uma certeza histórica, dado o contexto da África do Norte. Ainda assim, de séculos para cá, eles são na grande maioria brancos.
Parabéns Julie, nenhum dos papas q vc disse são negros, eles são brancos, e não é pq nasceram na África q necessariamente eles são negros, parece q é vc quem está praticando racismo estrutural.
Nascer na África não significa que eles sejam Negros. Esses Papas que você citou são todos da África do norte, onde a população é em grande parte Árabe. E curiosamente a África do norte é conhecida como "África Branca". Então sim, é certo dizer que não existiriam papas negros
Esse problema de falsificação histórica não ocorre só com IAs, muita coisa hoje em dia faz isso, temos séries que se passam na Europa medieval e tem reis negros e gays... "Um povo que não conhece sua História está fadado a repeti-la.” (Edmund Burke)
Uma ficção não tem nenhum dever de ser historicamente preciso, até porque geralmente não é (sempre tem concessões de todo tipo, que vai desde música a maneirismos e língua). Mas é claro, você só se incomoda quando se trata de gays e negros não é? Tu não engana ninguém.
e o filtro do tiktok que transformava qualquer imagem em um desenho que a i.a gerava e quando uma pessoa negra estava na foto ou a i.a transformava ela em um macaco ou simplesmente objetos aleatorio então esse lance do google é so um dos milhões de casos
É simples de resolver esse problema sem nem mexer no banco de dados, o que necessita é uma retunagem onde voce pede por algum ser humano no prompt e a IA deveria SO PERGUNTAR se a pessoa deseja de alguma etnia especifica ou diversidade ou se o pedido é pra ter confiabilidade historica e probabilística ou seja, voce escreve o prompt: Gere a imagem de um politico americano. O gemini vai te perguntar: você prefere um politico acurado com a realidade ou um politico diverso? E a pessoa ou a agência RESPONDE O QUE ELA QUER: AH eu quero um político que seja LATINO por exemplo, pronto dai a IA vai gerar um latino com roupas de político, policial, soldado etc ...
A acurácia histórica também pode ser solicitada por exemplo: gere portugueses nas Caravelas com fidelidade histórica: a IA não vai botar nem mulher e nem gente negra nas Caravelas pqe historicamente não existia.
IA irá compreender que alemão é alguém homo sapiens sapiens que por ventura tenha nascido na Alemanha, se for humano programando pra preconceito é uma coisa, mas se for IA agindo independente é outra .
@@mestrebruno3384literalmente ele nasceu do lado do continente africano, o povo egípcio que é citado pra caramba nos 5 primeiros livros do velho testamento fica na África kkk
Fui testar com o Bing, e ele fez a mesma coisa, primeiro pedi um médico e ele fez brancos, aí solicitei um médico negro ele apresentou dificuldades e fez enfermeiros ou atendente no hospital por diversas vezes, ao acusar ele de racismo ele pegou a imagem da internet como se fosse uma pesquisa de imagens de homens negros no hospital. Depois testem.
É aquela história, ao invés de aceitar e aprender com a história, faz tenpo que existe um esforço para cancelar e "reinventar" a história. E agora o resultado é esse: viés em como se percebe a realidade.
Em 4:57 é algo do senso comum, o preconceito está na sociedade, não na ia ou na empresa. Nada errado na representação, tudo errado no modelo social que vivemos.
gente só eu que sinto que as bolhas tão furando? Ultimamente to lendo cada absurdo na internet que não acredito que essas pessoas sempre tiveram computador
O que acontece é que as IAs são "sistemáticas" se vc não for específico, ela vai gerar as imagens programadas por padrão, e com o recolhimento das informações ela vai aperfeiçoando. Quem usa o serviço e leu os termos sabe muito bem disso.
a real é que muitas pessoas não sabem usar as IAs, elas são que nem um gênio, quanto mais vago tu for num pedido mais margem de erro tu permite. Se tu pedir quatro pessoas numa sala e não tiver nenhum caucasiano tu tá errado em reclamar, teu comando foi vago e ela botou etnias aleatórias, o problema é se tu pedir especificamente por um caucasiano e a IA não conseguir de maneira alguma gerar, e é isso que tava acontecendo. Tem que tomar cuidado ao reclamar dos resultados e ver onde realmente tá o erro, seja no prompt ou na própria IA.
Só fazer o teste aí, escrevendo assim: I'm proud to be white (tenho orgulho em ser branco) - O Gemini vai responder que isso é algo preconceituoso I'm proud to be black (tenho orgulho em ser negro) - O Gemini vai parabenizar você :)
Você foi objetivo, mostrou algo que vale pra um, mas não pro outro... e a galera nos comentários fica fazendo malabarismo e criando contexto pra isso. Simplesmente patético.
O algoritmo é treino por outras imagens. Se você vive em uma sociedade racista, o programa acaba virando reflexo dos pensamentos ideológicos dessa sociedade. Logo, a sociedade é racista, não o programa ou o programador.
Se fosse assim, toda imagem histórica de um povo pouco miscigenado deveria seguir as próprias imagens históricas e assim mostrar muito mais próximos de como foram. Logo, realmente foi colocado um viés no algoritmo e contra a realidade das coisas e a real proporção dada na base de dados.
Problemas listado: - Pediram a foto de um soldado alemão de 1943 e a IA misturou a vestimenta e pose de um soldado com pessoas aleatórias. - A IA seguiu a base de dados dela (Tendo "preferencia" por gerar as características das pessoas que encaixem melhor no contexto segundo a base de dados dela). Para tentar corrigir isso, afinaram para que tivesse uma diversidade de características nas imagens geradas e foi isso que a IA fez. (O caso da sereia foi 100% ajuda da Disney. Não existem fotos de sereias reais, seu tio pescador mentiu). Solução simples e viável: deixa o usuario colocar a palavra "Diversidade" por conta propria no prompt, certamente ninguém vai pedir diversidade para as fotos de soldado alemão de 1943. A IA sabe gerar pessoas com todas as características, mas ela *não tem senso de realidade*. Uma IA é uma serie de matrizes representando nodos e pesos entre as ligações de grafos, só. E lembrem-se, treinar uma IA é um processo que requer placas de video, do tamanho de um frigobar, ligadas até meses a fio. Isso é uma operação de milhões (Se não bilhões) que vocês (Consumidores que dão valor para a presença ou ausência de minorias nas imagens geradas por IA, ou até o usuario médio de IA no geral) não estão dispostos a pagar. Isso ignorando a curadoria de imagens, que por não poder usar sistemicamente uma IA (Por motivos óbvios) também vai ser uma fortuna em salários.
O Leon falando de assuntos polêmicos é muito fofinho, tentando ser o mais delicado possível, enquanto a Nilce, que é muito mais "avantajada" nesses assuntos, fica direcionando ele e se segurando pra não falar horrores. kkkkkkkkkkk esses dois se completam
Tentei no gerador de imagem ia da adoble e me deram 4 imagens do tal soldado alemão de 1943. A primeira uma menina nova de cabelo preto e pele bronzeada (a definição de uma pessoa parda no Br) a segunda imagem um homem loiro dos olhos azuis, a terceira imagem é a mesma menina da primeira imagem só que com rugas de expressão e idade e a 4 imagem é uma indiana com a pintinha na testa, cabelo enorme e preso. Esses são os soldados da Alemanha em 1943.
Essa semana eu tentei dezenas de vezes gerar pelo Bing, uma imagem de escravos jogando capoeira por volta de 1700. Resultado... depois de dias tentando coisas diferentes, eu só consegui um monte de homem branco pulando e tocando tambor
o Bing IA é o mais aviadado de todos, ele fica com medo de gerar coisa errada, coisas sexuais, pessoas peladas, ou coisas politicamente incorreto, então só de vc ter escrito escravo, ele ja fica alerta e fica tentando negar pra vc, pq acha que vc ta tentando fazer algo errado... Eu tentava criar "homem afeminado" e ele negava todas as vezes, ele dizia que era coisa explicita sexual, tipo oi???
Tavam sendo taxados de racistas e arrumaram colocando a diversidade, agora tão reclamando que tão colocando diversidade 🤡 de querem mais fidelidade que contratem um designer profissional, tá cheio de mimimi pra uma IA que ainda tá no começo e ainda já arrumaram a questão de preconceito inconsciente
Acho que resumindo: a IA está certa, e o erro é humano, se tivesse colocado um prompt mais especifico como "um homem branco loiro de olhos azuis, alemão, vestindo uma farda do exército alemão de 1945, foto antiga" etc.. teria os resultados desejados. Quando o Leon fala "quando vc está querendo gerar uma imagem que existe na realidade, não existem papas mulheres" acho que é o ponto principal: Geração de imagem com IA não são representações da realidade, são sempre ilustrações com conceitos abstratos usando estética realista. SEMPRE. O Usuário que quer gerar uma imagem de IA que existe na realidade já está conceitualmente errado, ele está querendo uma fotografia.
Pois é. Essas IAs q estão surgindo tem a palavra Generativa no nome não é a toa. Eles simplesmente geram textos, imagens etc de forma convincente de acordo com o prompt mas sem compromisso com a realidade.
Tipo, se vc pede "uma pessoa vestida com uniforme militar alemão" e a IA mostra negros, mulheres e asiáticos vestidos assim ela não está errada. Errado está o prompt.
De verdade, 1o que a língua inglesa não tem gênero, então quem está dando a ordem precisa ser específica com a ferramenta. 2o tacar diversidade na IA vai fazer mais e mais resultados como esse. 3o eu posso estar enganado, mas o uso prático da inteligência no fim é feito por um humano, que precisa saber que não dá pra se usar determinadas imagens que ele gerar. Ou então alguém que seja capaz de apontar o erro, caso alguém o faça. Nos registros históricos não especifica se as pessoas eram brancas ou negras. Hoje em dia tem alemão negro, com cara de chinês, tudo misturado. É com essa base que as IAs trabalham.
Tenho um amigo negro que sempre posta imagens históricas de figuras importantes ou da cultura negra. Porém, a última imagem que ele postou foi de uma família samurai porém eles eram negros com traços japoneses. Claramente ele postou sem saber a origem desta “foto”. Eu achei preocupante.
Não consigo ver um real problema na IA gerando um soldado nazista negro. Okay, eu sei que historicamente isso é completamente absurdo, mas eu não estou usando uma IA de geração de imagens pra estudar história e nem deveria também. Provavelmente eu usaria esta imagem em algum trabalho e etc.
Curiosidade Em 1501, durante o papado de Rodrigo Bórgia, sua filha Lucrécia Bórgia assumiu o posto de papisa durante certo período em que o papa precisou ausentar-se do Vaticano.
A grande dificuldade é as crianças que hoje aprendem tudo na internet, o que elas estão aprendendo? Que tipo de homem vamos ter no futuro. Acessão em queda das grandes civilizações, foi um livro que eu nunca mais encontrei. E chegou a nossa vez
Testei também o soldado alemão da 2 guerra em modelos no stable difussion, que não tem restrições. A solução simples dos modelos é criar um soldado com um uniforme genérico de 2 guerra, porem de etnia caucasiana.
Amamos a Google, mas não dá pra defender... Parece a Apple com os números irreais dela principalmente quando disseram que a GPU do M1 Ultra seria melhor que uma 3090. Sou fã boy de Apple, mas honestamente, nem eu defendo Vision Pro. Pedi pra Samsung me ajudar a tirar da Apple, fazendo com que eu quebrasse meu iPhone 15 pro Max em troca do Novo S24 Ultra. Me mandaram trocar por 3 mil reais. Será que sobre as imagens, não é um problema da distopia da identificação? "Me identifico com um cachorro" e assim em diante... Por fim, a inteligência artificial vai acabar levando isso em consideração... Complicado. Eu tenho o Gemini Advanced e Achei BEM inferior ao GPT-4.Inclusive coloco os dois pra conversar e... fica muito estranho. Poderiam fazer esse teste! Seria divertido ver no canal. AMO vocês.
Corrigindo pequenos equivocos: Máquinas não tem viés NENHUM, como o vídeo sugere. Apenas fazem o que foram programadas para fazer. Quando o resultado do pedido entra em conflito com o viés HUMANO ou com o que é experimental e/ou observável, chamamos de "problema do alinhamento" e NENHUMA curadoria, por mais minuciosa que seja resolverá, já que TODA curadoria é enviesada e na verdade se trata de um problema matemático. Dito isso, DEVERIAM limitar (mas não farão) o uso dessas ferramentas ao campo científica e EDUCAR AS PESSOAS sobre COMO, PORQUE e PARA QUÊ usar uma IA. Caso contrário vamos destruir o planeta por acidente usando ERRADO essa coisa.
talvez se eles colocarem uma pergunta antes de gerar a pessoa, perguntando pro usuario se é um contexto histórico e se deveriam aparecer todas as etnias, quem sabe...
Não é enviesado mesmo pois programadoes viram que haviam pronpts escondi dos a mais em toda imagem que você gerava, que eram divercidade, negro, asiaticos e indios, não importa a imagem que gerasse isso tava lá independente de fazer sentido e a IA se negava a fazer imagens de brancos em especial(tipo ela não fazia imagem de uma família branca) pois era um esteriótipos baseado em raça, mas faria sem pensar duas vezes uma família negra sorridente ou seja hipocrisia pura, e o líder dessa IA claramente é extremista de esquerda e anti-branco(por mais que digam que não) tem falas dele dizendo barbaridades tipo: "Jesus só se preocupava com as criancas brancas eu tenho certeza que isso está na bíblia."...🤦🏻
Google parecendo abraçar a diversidade fez igual ao Joey de friends quando escreveu uma carta de recomendação e usou o dicionário de sinônimos pra soar mais inteligente... Em TODAS as palavras...
vários pontos: pra isso se solucionar é dar autonomia para ela distinguir a realidade histórica. isso é perigoso. e não só isso.. fica o questionamento, oq é real e qual história “através de imagens” o futuro vai contar?
Fico imaginando alguém precisando de uma imagem para trabalho escolar sobre escravidão, não conseguir gerar uma imagem retratando isso. Vamos ter que queimar todas as obras de arte que retratam esse período triste ou sumir com todas as fotos e registros do holocausto? Complicado demais.
Obriga ter no prompt a etnia que quem está gerando quer. Passa o problema para quem está chorando. Nenhuma IA vai ser perfeita, pelo menos por enquanto. Sempre vai ter um grupo achando ruim, seja de qual "lado" for.
Sobre os senadores americanos de antes de 1860, o copilot bloqueou e o SD criou algo bem próximo do que seria a realidade. Homens brancos com barbas estranhas.
não tinha pessoas negras em uniformes nazista no inicio, agora ja no final onde mal tinha alemão com mais de 20 anos ainda vivo, se tinha pessoas de todos os locais onde eles invadiram que foi recrutado para o exercito.
Muitas vezes ja tentei criar imagens de mulheres gordas e quase sempre a IA fazia uma mulher padrão magra, e quando eu enfatizava que tinha que ser gorda a imagem não gerava e aparecia uma mensagem dizendo que o pedido do prompt era impróprio, isso me irritou tanto veeei, como assim gerar imagem de pessoas gordas é impróprio????
isso acontece justamente como uma diretriz de proteção. imagine alguem criando essa imagens com intuito de agredir um grupo. tambem tem o problema do termo, talvez se vc tentar usar "pluz size" ou algo do genero funcione.
Eu tentei plus size, mas sempre vinha uma pessoa padrão. Essas IA ainda tem muito o que serem polidas, porque desde que o prompt não tenha algo que seja ofensivo, não vejo o porque não criar a imagem. O que eu tava tentando criar era um personagem parecido comigo pra um RPG, mas não consegui nada satisfatório infelizmente
@@mayrasantos3201 é pq alguém pode fazer uma pessoa gorda em alguma posição ofensiva ou usar pra representar essas pessoas ofensivamente, e como pessoas gordas hj em dia, são uma das minorias protegidas por certos grupos é mais fácil fazer com que elas n apareçam muito. Isso acontece até pra proteção da própria IA, afinal seria fácil processar uma IA que gera imagens “gordofobicas”
não estou surpresa, era só uma questão de tempo para esses problemas surgirem, e como Leon disse, para resolver as empresas vão ter que trabalhar muito e não acho que algumas estão interessadas nisso infelizmente
Fica sub-entendido. Se você quer uma imagem de um papa, é razoável imaginar que seja históricamente acurado. Se você quer algo diferente, só então você especifica.
@@MrCorvodatempestade Claro que há sub-entendimento. Quando você vai usar qualquer função disponível na linguagem de programação ou em uma library, você não precisa especificar a funcionalidade de tal função toda vez que vai usar. O sub-entendimento que a máquina consegue fazer é crucial e um dos mais importantes elementos da programação. E digo mais, quando se fala de uma inteligência artificial voltada para qualquer um poder usar, você deve fazer a ferramenta funcionar com o menor número possível de compromissos com a facilidade de uso, e isso inclue sub-entendimento. Mas é uma coisa interessante sobre se falar: a inteligência artificial deveria ser voltada para todo o público ou só para um público mais técnico, onde tudo deveria ser especificado? Está aí uma coisa para se pensar kkkkkkkkkk Boa noite, Corvo da tempestade. :)
@@MrCorvodatempestade Suponho que a falta de resposta às outras coisas que eu disse queira dizer que concorda. E sim, obviedade não é dada. Porém, subentendimento é. Após chamar a biblioteca, fica subentendido a função de cada coisa dentro dela, sem precisar definir novamente toda vez.
Talvez assim a “bolha dev” (composta na maioria por homens brancos que falam inglês) se entenda como privilegiada e entenda de uma vez por todas que do jeito que eles querem as coisas (modelos políticos etc) não é sustentável. Mas só TALVEZ…
Eu não acho que seja assim simples, você não consegue simplesmente "acressentar código" em um modelo de machine learning assim, claro que dá para fazer ajuste fino mas não é tão simples quanto alterar código, precisa treinar o modelo para gerar as respostas corretas e isso deve levar um tempo não só para excecutar como também para testar já que não querem problemas como o atual acontecendo novamente, tendo em vista que danifica a marca e pode gerar processos contra eles. Porém não sou um especialista em nada disso, é só oque eu li sobre na internet.
Complicado né. Tu escreve lá "quero um homem de 30 anos" e vem um.homem branco. Isso é racismo né. Ja que o homem "normal" para ai seria um branco, e se quiser algo "diferente" ter que explicar é complicado.
Como engenheiro de software, não vejo esse problema como particularmente desafiador. As próprias IA têm parte da solução pronta. Uma IA pode realizar uma análise estática da pergunta "Gere um médico", levando em conta proporções de sexo, cor de pele e países dos solicitantes, para gerar resultados com base nessas informações. Além disso, possibilita ao usuário especificar qualquer uma dessas variáveis, como por exemplo, solicitar uma médica morena alemã.
Gnt, não só racista como tbm misogina e machista. Se vc pede pra gerar um cara, vem com uma imagem simples de um homem com roupa, mas se pede uma mulher, ela vem sempre nua. A maioria vc tem q burlar isso, tipo descrever que a mulher tem q estar vestida, ou especificamente a cor da pele da pessoa.
Como as inteligências artificiais se baseiam na realidade, fica comprovado, através dos resultados por elas feitas e pela necessidade de implementação de filtros morais, que vivemos em uma sociedade com racismo estrutural. Nossas atitudes, comportamentos e pensamentos são permeados de preconceito e isso repercute em nossos ambientes físicos (racismo ambiental) e em nossas instituições (racismo institucional).
Na época do hit do Bard eu pedia pra ele fazer uma pessoa mais bronzeada, brown, parda e ele não deixava por considerar inapropriado. Eu estava pedindo pra me fazer xD pq sempre saía uma epssoa ultra branca.
Kkkkkkk desde quando lançaram o chatGPT pela primeira vez ao público eu venho falando isso. Os caras nao querem filtrar o dataset, são preguiçosos. Jogam tudo na "máquina" e depois sofrem pra fazer a IA "desaprender", o que é totalmente inviável, é um trabalho maior e quase impossível, embora menos chato de fazer.
Oi Sobre as implicações sociais da geração de imagens por inteligência artificial, acho que valia um vídeo específico, pois nunca havia pensado na possibilidade desses programas substituírem de tal forma os buscadores comuns que seja impossível o aprofundamento e revisionismo histórico. Criando uma realidade paralela. Como se humanidade estivesse entre um 1984 de George Orwell e o Fahrenheit 451 de Ray Bradbury. Há realmente tanto a se temer ?
É muito mais facil de se resolver esse problema fazendo com que o próprio usuario tenha a responsabilidade de crirar suas imagens, com comando preestabelecidos pela própria IA quando for solicitada a geração de uma imagem, fazendo assim um jogo de perguntas para melhor atender o que foi pedido, tirando a culpa da empresa e tranferindo essa responsabilidade para o usuario! ou eu to muito doido de pensar assim?
N sei se o Bard tinha, mas o gemini tem um api que vc pode fazer programaçoes em cima e tmb é multimodal. Evidentemente isso n tira nada do tópico principal do vídeo, uns vídeos atrás vcs comentaram da preocupacao com as pessoas usarem a ia para distorcer a história e criar fake news, aparentemente n precisa nem de pessoas para isso...
A IA do Bing também é assim Quando vc diz pra fazer um branco de cabelo crespo, ele nunca faz, o branco nunca tem cabelo crespo E vc nem precisa falar nada sobre o cabelo do negro q ele já põe crespo
e é por esse ponto (ealguns outros) que eu defendo o nao uso de IAs para geração de imagem..... como artista eu nunca vou conseguir defender e achar isso normal e aceitavel.....
Não é só separar conceitos estatísticos de conceitos hipotéticos? Nada melhor para representar conceitos estatísticos do que utilizar dados reais, e se você quiser criar conceitos da forma que você quiser, pode fazer as modificações que quiser em cima da base de dados, como eles estão fazendo.
Pq simplesmente nao deixar as pessoas mandarem imagens para treinamento? Ah mas a maioria sera de pessoas brancas, dane-se. Deixem gerar etnia que o usuario quiser, quando a IA for mais "inteligente" de fato ela vai ter como filtrar isso e tambem se alguem quiser criar um universo paralelo em que o nazismo foi feito por negros, ou mesmo por judeus qual o problema? Ou um mundo onde a etnia chinesa domine tudo menos a propria China que teria caucasianos. A IA tem que ser uma ferramenta sem limites e os limites serem dados pela sociedade no uso delas. Se o cara criar um livro que o publico nao goste, que nao comprem.
Nao seria mais facil deixar o prompt 'diversidade' explicito invez de implicito e permitir q ele seja ligado ou desligado? Ai seria responsabilidade do usuario como usar a ferramenta. Da mesma forma que alguem poderia fazer essas imagens manualmente ao invez de ser geradas por IA
Nesse hora você ver que não tem nada de inteligência essa ferramenta do Google, que não consegue entender o contexto histórico, antes de gerar a imagem
É preciso lembrar que quem culpa os tais 'algoritmos' ignora que eles não são produzidos do além, mas sim por pessoas. E o viés ideológico dessas pessoas faz toda diferença.
Na verdade as Inteligências Artificiais (IAs) utilizam em seus dados de treinamento dados reais. Se os dados reais tiverem algum viés ideológico, preconceito ou qualquer outro tipo de problema, o algoritmo irá replicar. Por isso, quem treina as IAs precisam tratar os dados usados no treinamento para combater esse tipo de problema.
@@filipealmeida9397 ainda sim, na minha opniao, não acho que o problema foram as fontes duvidosas, eles sabiam o que tava fazendo, a google nao é nada pequena,em algum momento do vídeo o próprio lion até cita o fato da Google querer um gerador de imagem mais "diverso". Preferiram lacrar a entregar um produto convincente.
Uma coisa muito importante é o prompt que representa a camada encapsuladora da IA Generativa. Tanto o Bard (que agora se chama Gemini), quanto o chat GPT e outros possuem um prompt para justamente tentar limitar certos tipos de resposta. O problema é que é super complicado fazer um prompt que seja muito abrangente. Então não necessariamente precisamos trocar a base de dados, podemos através de engenharia de prompt criar um ideal
@@wendel8350 na verdade eles viram que os dados são preconceituosos, e isso é um fato. Preconceito é o que? Crime. Logo tem que ser tratado. O problema é a gambiarra para tratar isso.
Cara, existem mais negros em sub empregos sim, é apenas um reflexo da vida real, simples, não é racismo, é apenas a vida, os negros na maioria dos países ainda sofrem com consequências da escravidão
A verdade é que a Google veio muito atrasada nessa batalha de inteligência artificial, outras empresas estão à frente da Google
Na verdade, a Google já teve investimento nessa área, mas parou para não se canibalizar, como a Kodak com as câmaras digitais.
Mas o Gemini dá de 10 a 0 no ChatGPT. O tanto de funcionalidade que aquilo tem é um absurdo.
@@alcrian8627 não estou comparando o chat gpt e o gemini e sim tudo em geral a maioria das coisas o Google perde por outras empresas de IA isso é bem claro, por que o Google ta atrasado nessa área inclusive ta uma piada esse criador de imagens do Google a OpenAI a nova IA de vídeo da uma surra em todas a Sora pelo visto vai revolucionar essa área
@@joprogamer8903Amigo, pelo visto você não atua muito no campo da IA. Realmente, o Sora é o que temos de melhor em geração de vídeo (não saiu pro público geral, ainda). Mas, o foco do Gemini não é esse. Se você trabalha com IA, sabe o quão referência Gemini é pra muita coisa. O ChatGPT é uma IA de modelo de linguagem, ou seja, ele foca em palavras. Ele é horrível pra cálculos ou qualquer outra coisa que não seja relacionada à linguagem. Gemini, por outro lado, é uma junção de vários projetos de IA do Google. Ele faz cálculos corretamente, ele corrige código de programação corretamente (inclusive, faz sugestões de otimização). O Google tá anos luz na frente do que o ChatGPT oferece.
@@alcrian8627 Nunca, o GPT 4 continua melhor que o google gemini, ao menos por enquanto
Sou graduando em ciências sociais na universidade estadual do sudoeste da Bahia. Minha Tese terá base nas relações entre IA, relações étnicas e a vida de artistas. É muito massa que frequentemente eu pego material com os videos de vcs ❤️
Muito cuidado, ja vai preparando os estudos em IA pq é um assunto complicadissimo
Nao tem sentido vc trabalhar em uma tese sobre um assunto que vc nao sabe como funciona. Digo isso, pois acho dificil que com sua formaçao vc entenda alguma coiaa da matematica envolvida em redes neurais.
@@davi3789 !!!!!!
@@davi3789 A "matemática" da IA não tem nada a ver com o que ele quer fazer...
@@RhuanPacheco tem tudo a ver, nao é possivel as relaçoes de elementos que vc desconhece a natureza.
o problema dessa IA não é que ela simplesmente se RECUSA a gerar imagens de pessoas brancas, em praticamente qualquer contexto mesmo que você peça especificamente por isso
Kkk e eu querendo fazer uma bala atingindo um vidro no do Bing e cara toda vez a bala ficava de pé e eu insistindo escrevendo de todo modo e ele preferiu fazer uma bala atingindo outra bala em pé do que só fazer uma bala na horizontal passando pela tela kkkk que era só isso que eu queria
@@ValiHer0também tenho dificuldade pra conseguir a imagem que eu quero com o Copilot.
qual é o problema?
@@felixnotthecat4249assistiu o vídeo não??
imagina empresas e pessoas usando essa ia pra estudos ou coisa parecida e pedem um soldado alemão em 1943 e a IA só consegue gerar pessoas asiáticas e negras@@felixnotthecat4249
acredito que o problema não seja necessariamente que a IA seja racista ou preconceituosa, tem dois problemas ai, o primeiro é a geração de informações falsas que foi apontado com o caso dos senadores americanos por exemplo, a outra é querer que a IA gere diversidade quando a base de dados dela não é diversa. Infelizmente nós negros não estamos na maior parte dos cargos de destaque, digo isso falando do Brasil por exemplo, há uma grande maioria de médicos, engenheiros, juízes brancos em contrapartida cargos de menor destaque como faxina, empregada domestica, limpeza, etc, são cargos onde pessoas negras ocupam em sua maioria, ou seja se a base de dados dessas IA's é essa, isso indica na verdade um reflexo de nossa sociedade e não um enviesamento necessariamente, ou seja precisamos mudar a sociedade como ela funciona e não os resultados que uma IA apresenta.
Correto
É isso
Errado. Quando vc pede pra ela fazer imagem de pessoas que existiram brancas como George Washington transforma ele em negro. Se vc pesquisar "homem forte branco" ela fala que não pode gerar pois é algo racista, se vc pesquisar "homem negro forte" ela vai gerar normalmente. O único racismo dessa IA é contra pessoas brancas.
é muito mais fácil concertar uma IA doque mudar a sociedade
Bom mas realidade do EUA e outra la diferente mente do Brasil e por incrível que pareça tem muito mais pessoas negras em cargos de destaque que no Brasil que um pais incrivelmente racista
Uma coisa que te talvez vcs não tenham notado por não serem tão inteirados em assuntos raciais: quando solicitado para a IA para gerar imagens de várias etnias ela provavelmente não gera pessoas brancas pq já o preconceito de que apenas o não branco é uma etnia e o branco seria o "padrão". Esse tipo de preconceito com certeza está nos dados usados para treinamento da IA
sim, entra ano, sai ano, e a categoria "branco" permanece intocável.
Se eu não me engano, no online do Call of Duty World War 2 de 2017, você também podia criar seus soldados alemães sendo mulheres negras, o que era totalmente bizarro e tirava um pouco da imersão de estar jogando um jogo da segunda guerra mundial.
No Battlefield V também se não me engano da para ser uma mulher asiática no time alemão...
Eu sei mas tem negro que quer se sentir como um soldado na segunda guerra. Eu também acharia daora " e se os soldados fossem negros" e refletir um pouco. Precisa olha pra todos os lados
@@emanuellucin acho que eles foram nessa ideia de inclusão, mas acabou que deu bastante polêmica na época, e agora se repetindo com a ia
@@cauereis2064 meio esquisito achar isso um problema, man
Bom lembrar que em 2015 o Google fotos identificava pessoas e coisas. Na época uma mulher negra foi classificada como GORILA e o Google excluiu o termo de dentro do app.
Diversidade de maneira forçada dá isso aí, quando os dados já vem com viés, se você não trata de forma certa acontece exatamente isso, bastar mudar 1 parâmetro errado que surge coisas bizarras como essa
É uma questão de calibração, porque os dados que treinam essas inteligências artificiais já vêm enviesados.
@@GSBroker exatamente, a questão é q resolver este problema não é uma tarefa tão simples como muitos imaginam, na vdd é bem complexo
já pararam pra pensar que as histórias de princesas da Disney são revisionismo histórico? Tipo as histórias originais não eram aquelas, mas hoje todo mundo só lembra delas, as lições que queriam passar no passado com elas se perderam ou estão se perdendo
@@Mr_Leo_DSeu tava pensando mais no sentido do registro do conto e não sobre elas guardarem algum fato da história, algo mais do tipo "oque essas histórias ensinavam quando foram escritas?" ai quando alguem fala a data em que foi escrita a pessoa lembra do da disney e não da história original e fica com uma impressão errada de qual era a verdadeira mensagem
Pessoal quis ser inclusivo até demais KKKKKKKK a IA simplesmente cagou pros contextos históricos promptados
8:16 Apenas um pequeno comentário: pode ser que já tenham existido sim Papas negros, como Vítor I (189-198), Melquíades (311-314) e Gelásio I (492-496). Porém, não é uma certeza histórica, dado o contexto da África do Norte. Ainda assim, de séculos para cá, eles são na grande maioria brancos.
Não e pq eles nasceram na Africa que eles são negros. Quase todos citados aí nasceram na Africa do Norte, que não tem muitos negros
Nenhum dos papas que você citou eram negros, da proxima vez leia o material completo.
Parabéns Julie, nenhum dos papas q vc disse são negros, eles são brancos, e não é pq nasceram na África q necessariamente eles são negros, parece q é vc quem está praticando racismo estrutural.
Nascer na África não significa que eles sejam Negros. Esses Papas que você citou são todos da África do norte, onde a população é em grande parte Árabe. E curiosamente a África do norte é conhecida como "África Branca". Então sim, é certo dizer que não existiriam papas negros
Eles eram Africanos, mas no máximo eram pardos (estou usando a lógica Brasileira).
E a mensagem que o Gemini dava quando você pedia imagens de pessoas brancas especificamente e ele se recusava e dava uma mensagem de inclusividade.
eu notei isso também, pedi pra gerar um soldado da Alemanha na segunda guerra mundial, quando eu vi o resultado eu pensei: ☠
Esse problema de falsificação histórica não ocorre só com IAs, muita coisa hoje em dia faz isso, temos séries que se passam na Europa medieval e tem reis negros e gays... "Um povo que não conhece sua História está fadado a repeti-la.” (Edmund Burke)
Mds, qual o nome da série?
Chora mais, reaça
Uma ficção não tem nenhum dever de ser historicamente preciso, até porque geralmente não é (sempre tem concessões de todo tipo, que vai desde música a maneirismos e língua). Mas é claro, você só se incomoda quando se trata de gays e negros não é? Tu não engana ninguém.
@@roadkill_52calma lacrola
e o filtro do tiktok que transformava qualquer imagem em um desenho que a i.a gerava e quando uma pessoa negra estava na foto ou a i.a transformava ela em um macaco ou simplesmente objetos aleatorio então esse lance do google é so um dos milhões de casos
mas isso não era brincadeira da gelera do tiktok não??? 😮absurdo
Era uma piada dos tik tokers mano
Olha como a fake news se perpétua, né? Galera não tem nenhum compromisso com a verdade, pqp
Não é que as IA sejam rascistas, mas a sociedade é racista, logo, a maquina vai entender o mundo como ele é.
"Quem controla o passado controla o futuro, quem controla o presente controla o passado", logo quem controla o presente controla o futuro.
É simples de resolver esse problema sem nem mexer no banco de dados, o que necessita é uma retunagem onde voce pede por algum ser humano no prompt e a IA deveria SO PERGUNTAR se a pessoa deseja de alguma etnia especifica ou diversidade ou se o pedido é pra ter confiabilidade historica e probabilística ou seja, voce escreve o prompt: Gere a imagem de um politico americano. O gemini vai te perguntar: você prefere um politico acurado com a realidade ou um politico diverso? E a pessoa ou a agência RESPONDE O QUE ELA QUER: AH eu quero um político que seja LATINO por exemplo, pronto dai a IA vai gerar um latino com roupas de político, policial, soldado etc ...
A acurácia histórica também pode ser solicitada por exemplo: gere portugueses nas Caravelas com fidelidade histórica: a IA não vai botar nem mulher e nem gente negra nas Caravelas pqe historicamente não existia.
IA irá compreender que alemão é alguém homo sapiens sapiens que por ventura tenha nascido na Alemanha, se for humano programando pra preconceito é uma coisa, mas se for IA agindo independente é outra .
A religião fez isso com jesus antes de ser modinha de IA 😂
Como assim?
@@emmallly Pq representam jesus como um europeu, branquinho cabelo liso, sendo q ele era da África
pensei demais, relacionei com outra coisa
@@dango5303Vai com calma ai Jesus tava longe de ser Branco mas africano ele tava longe de ser né ksksksksks
@@mestrebruno3384literalmente ele nasceu do lado do continente africano, o povo egípcio que é citado pra caramba nos 5 primeiros livros do velho testamento fica na África kkk
Fui testar com o Bing, e ele fez a mesma coisa, primeiro pedi um médico e ele fez brancos, aí solicitei um médico negro ele apresentou dificuldades e fez enfermeiros ou atendente no hospital por diversas vezes, ao acusar ele de racismo ele pegou a imagem da internet como se fosse uma pesquisa de imagens de homens negros no hospital. Depois testem.
É aquela história, ao invés de aceitar e aprender com a história, faz tenpo que existe um esforço para cancelar e "reinventar" a história. E agora o resultado é esse: viés em como se percebe a realidade.
Em 4:57 é algo do senso comum, o preconceito está na sociedade, não na ia ou na empresa. Nada errado na representação, tudo errado no modelo social que vivemos.
gente só eu que sinto que as bolhas tão furando? Ultimamente to lendo cada absurdo na internet que não acredito que essas pessoas sempre tiveram computador
O que acontece é que as IAs são "sistemáticas" se vc não for específico, ela vai gerar as imagens programadas por padrão, e com o recolhimento das informações ela vai aperfeiçoando.
Quem usa o serviço e leu os termos sabe muito bem disso.
A Netflix faz filmes mudando etnia dos personagens e ninguém fala nada kkkkkkkkkkkkkkkkk
a real é que muitas pessoas não sabem usar as IAs, elas são que nem um gênio, quanto mais vago tu for num pedido mais margem de erro tu permite. Se tu pedir quatro pessoas numa sala e não tiver nenhum caucasiano tu tá errado em reclamar, teu comando foi vago e ela botou etnias aleatórias, o problema é se tu pedir especificamente por um caucasiano e a IA não conseguir de maneira alguma gerar, e é isso que tava acontecendo. Tem que tomar cuidado ao reclamar dos resultados e ver onde realmente tá o erro, seja no prompt ou na própria IA.
O que essa I.A fez é o que filmes, séries, documentários e jogos históricos já estão fazendo
Só fazer o teste aí, escrevendo assim:
I'm proud to be white (tenho orgulho em ser branco) - O Gemini vai responder que isso é algo preconceituoso
I'm proud to be black (tenho orgulho em ser negro) - O Gemini vai parabenizar você :)
Coitado dos brancos. Força aos guerreiros
Você foi objetivo, mostrou algo que vale pra um, mas não pro outro... e a galera nos comentários fica fazendo malabarismo e criando contexto pra isso. Simplesmente patético.
@@kisamehoshikage9166 Isso, porque todo branco vive na tranquilidade, e porque todo negro vive na dificuldade.
E não, isso não é racista.
O algoritmo é treino por outras imagens. Se você vive em uma sociedade racista, o programa acaba virando reflexo dos pensamentos ideológicos dessa sociedade. Logo, a sociedade é racista, não o programa ou o programador.
Se fosse assim, toda imagem histórica de um povo pouco miscigenado deveria seguir as próprias imagens históricas e assim mostrar muito mais próximos de como foram.
Logo, realmente foi colocado um viés no algoritmo e contra a realidade das coisas e a real proporção dada na base de dados.
Nunca vou entender a galera q usa a expressão "anti branco" pra substituir racista kkk
Aí aí
@@andersonthiago2588 oq
É pq a palavra "racismo" não seria corretamente usada para "preconceito com pessoas brancas".
É pq a palavra "racismo" não seria corretamente usada para "preconceito com pessoas brancas".
É pq se usarem vai vir uma cambada de gente falando que racismo não existe contra brancos kkkkkkkkk
Problemas listado:
- Pediram a foto de um soldado alemão de 1943 e a IA misturou a vestimenta e pose de um soldado com pessoas aleatórias.
- A IA seguiu a base de dados dela (Tendo "preferencia" por gerar as características das pessoas que encaixem melhor no contexto segundo a base de dados dela). Para tentar corrigir isso, afinaram para que tivesse uma diversidade de características nas imagens geradas e foi isso que a IA fez. (O caso da sereia foi 100% ajuda da Disney. Não existem fotos de sereias reais, seu tio pescador mentiu).
Solução simples e viável: deixa o usuario colocar a palavra "Diversidade" por conta propria no prompt, certamente ninguém vai pedir diversidade para as fotos de soldado alemão de 1943.
A IA sabe gerar pessoas com todas as características, mas ela *não tem senso de realidade*. Uma IA é uma serie de matrizes representando nodos e pesos entre as ligações de grafos, só.
E lembrem-se, treinar uma IA é um processo que requer placas de video, do tamanho de um frigobar, ligadas até meses a fio. Isso é uma operação de milhões (Se não bilhões) que vocês (Consumidores que dão valor para a presença ou ausência de minorias nas imagens geradas por IA, ou até o usuario médio de IA no geral) não estão dispostos a pagar. Isso ignorando a curadoria de imagens, que por não poder usar sistemicamente uma IA (Por motivos óbvios) também vai ser uma fortuna em salários.
A lacrada foi tão forte que nem a google tankou kkkk
O Leon falando de assuntos polêmicos é muito fofinho, tentando ser o mais delicado possível, enquanto a Nilce, que é muito mais "avantajada" nesses assuntos, fica direcionando ele e se segurando pra não falar horrores. kkkkkkkkkkk esses dois se completam
Almoçando vendo vocês, nada melhor 😊
Daqui a 10 anos, vocês farão um vídeo falando sobre o passado, mostrando como as IA no início eram R...
Ah então agora tá explicado como o Prime fez a série do senhor dos anéis kkk usando o Gemini do Google.
A parte mais doida dessa história, é que a IA em si não tem culpa. é a mesma coisa de culpar uma criança de 1 ano por quebrar algo.
Alguém culpou as IAs?
Tentei no gerador de imagem ia da adoble e me deram 4 imagens do tal soldado alemão de 1943. A primeira uma menina nova de cabelo preto e pele bronzeada (a definição de uma pessoa parda no Br) a segunda imagem um homem loiro dos olhos azuis, a terceira imagem é a mesma menina da primeira imagem só que com rugas de expressão e idade e a 4 imagem é uma indiana com a pintinha na testa, cabelo enorme e preso. Esses são os soldados da Alemanha em 1943.
Essa semana eu tentei dezenas de vezes gerar pelo Bing, uma imagem de escravos jogando capoeira por volta de 1700. Resultado... depois de dias tentando coisas diferentes, eu só consegui um monte de homem branco pulando e tocando tambor
o Bing IA é o mais aviadado de todos, ele fica com medo de gerar coisa errada, coisas sexuais, pessoas peladas, ou coisas politicamente incorreto, então só de vc ter escrito escravo, ele ja fica alerta e fica tentando negar pra vc, pq acha que vc ta tentando fazer algo errado... Eu tentava criar "homem afeminado" e ele negava todas as vezes, ele dizia que era coisa explicita sexual, tipo oi???
homem branco pulando e tocando tambor em 1700 é foda kkkkkkkkkkkkk
@AzraelZL pelo menos não preciso pagar pra gerar uma imagem igual o ChatGPT
Tavam sendo taxados de racistas e arrumaram colocando a diversidade, agora tão reclamando que tão colocando diversidade 🤡 de querem mais fidelidade que contratem um designer profissional, tá cheio de mimimi pra uma IA que ainda tá no começo e ainda já arrumaram a questão de preconceito inconsciente
Acho que resumindo: a IA está certa, e o erro é humano, se tivesse colocado um prompt mais especifico como "um homem branco loiro de olhos azuis, alemão, vestindo uma farda do exército alemão de 1945, foto antiga" etc.. teria os resultados desejados.
Quando o Leon fala "quando vc está querendo gerar uma imagem que existe na realidade, não existem papas mulheres" acho que é o ponto principal: Geração de imagem com IA não são representações da realidade, são sempre ilustrações com conceitos abstratos usando estética realista. SEMPRE.
O Usuário que quer gerar uma imagem de IA que existe na realidade já está conceitualmente errado, ele está querendo uma fotografia.
Não existem fotografias da maioria dos papas.
Pois é. Essas IAs q estão surgindo tem a palavra Generativa no nome não é a toa. Eles simplesmente geram textos, imagens etc de forma convincente de acordo com o prompt mas sem compromisso com a realidade.
E não vai ser uma IA (nem nada) que vai fazer existir.. @@Faroshkas
Tipo, se vc pede "uma pessoa vestida com uniforme militar alemão" e a IA mostra negros, mulheres e asiáticos vestidos assim ela não está errada. Errado está o prompt.
De verdade, 1o que a língua inglesa não tem gênero, então quem está dando a ordem precisa ser específica com a ferramenta.
2o tacar diversidade na IA vai fazer mais e mais resultados como esse.
3o eu posso estar enganado, mas o uso prático da inteligência no fim é feito por um humano, que precisa saber que não dá pra se usar determinadas imagens que ele gerar. Ou então alguém que seja capaz de apontar o erro, caso alguém o faça.
Nos registros históricos não especifica se as pessoas eram brancas ou negras. Hoje em dia tem alemão negro, com cara de chinês, tudo misturado. É com essa base que as IAs trabalham.
Tenho um amigo negro que sempre posta imagens históricas de figuras importantes ou da cultura negra. Porém, a última imagem que ele postou foi de uma família samurai porém eles eram negros com traços japoneses. Claramente ele postou sem saber a origem desta “foto”. Eu achei preocupante.
Fui atrás e descobri que era inteligência artificial
@@mateuspeixoto2121curiosamente ha um caso historico de samurai negro no fim da era.
@@ricardomarchiori261 Sim, infelizmente a imagem não se referia a este samurai imigrante.
Não consigo ver um real problema na IA gerando um soldado nazista negro. Okay, eu sei que historicamente isso é completamente absurdo, mas eu não estou usando uma IA de geração de imagens pra estudar história e nem deveria também. Provavelmente eu usaria esta imagem em algum trabalho e etc.
Curiosidade
Em 1501, durante o papado de Rodrigo Bórgia, sua filha Lucrécia Bórgia assumiu o posto de papisa durante certo período em que o papa precisou ausentar-se do Vaticano.
A grande dificuldade é as crianças que hoje aprendem tudo na internet, o que elas estão aprendendo? Que tipo de homem vamos ter no futuro. Acessão em queda das grandes civilizações, foi um livro que eu nunca mais encontrei. E chegou a nossa vez
Testei também o soldado alemão da 2 guerra em modelos no stable difussion, que não tem restrições. A solução simples dos modelos é criar um soldado com um uniforme genérico de 2 guerra, porem de etnia caucasiana.
Amamos a Google, mas não dá pra defender... Parece a Apple com os números irreais dela principalmente quando disseram que a GPU do M1 Ultra seria melhor que uma 3090. Sou fã boy de Apple, mas honestamente, nem eu defendo Vision Pro.
Pedi pra Samsung me ajudar a tirar da Apple, fazendo com que eu quebrasse meu iPhone 15 pro Max em troca do Novo S24 Ultra. Me mandaram trocar por 3 mil reais.
Será que sobre as imagens, não é um problema da distopia da identificação? "Me identifico com um cachorro" e assim em diante... Por fim, a inteligência artificial vai acabar levando isso em consideração... Complicado. Eu tenho o Gemini Advanced e Achei BEM inferior ao GPT-4.Inclusive coloco os dois pra conversar e... fica muito estranho. Poderiam fazer esse teste! Seria divertido ver no canal.
AMO vocês.
Corrigindo pequenos equivocos: Máquinas não tem viés NENHUM, como o vídeo sugere. Apenas fazem o que foram programadas para fazer. Quando o resultado do pedido entra em conflito com o viés HUMANO ou com o que é experimental e/ou observável, chamamos de "problema do alinhamento" e NENHUMA curadoria, por mais minuciosa que seja resolverá, já que TODA curadoria é enviesada e na verdade se trata de um problema matemático. Dito isso, DEVERIAM limitar (mas não farão) o uso dessas ferramentas ao campo científica e EDUCAR AS PESSOAS sobre COMO, PORQUE e PARA QUÊ usar uma IA. Caso contrário vamos destruir o planeta por acidente usando ERRADO essa coisa.
talvez se eles colocarem uma pergunta antes de gerar a pessoa, perguntando pro usuario se é um contexto histórico e se deveriam aparecer todas as etnias, quem sabe...
Não é enviesado mesmo pois programadoes viram que haviam pronpts escondi dos a mais em toda imagem que você gerava, que eram divercidade, negro, asiaticos e indios, não importa a imagem que gerasse isso tava lá independente de fazer sentido e a IA se negava a fazer imagens de brancos em especial(tipo ela não fazia imagem de uma família branca) pois era um esteriótipos baseado em raça, mas faria sem pensar duas vezes uma família negra sorridente ou seja hipocrisia pura, e o líder dessa IA claramente é extremista de esquerda e anti-branco(por mais que digam que não) tem falas dele dizendo barbaridades tipo: "Jesus só se preocupava com as criancas brancas eu tenho certeza que isso está na bíblia."...🤦🏻
Google parecendo abraçar a diversidade fez igual ao Joey de friends quando escreveu uma carta de recomendação e usou o dicionário de sinônimos pra soar mais inteligente... Em TODAS as palavras...
vários pontos: pra isso se solucionar é dar autonomia para ela distinguir a realidade histórica. isso é perigoso. e não só isso.. fica o questionamento, oq é real e qual história “através de imagens” o futuro vai contar?
"A google tentou diversificar" - não foi isso. O responsável pela Gemini era abertamente racista. Tem tweets deles deixando isso claro.
Testei o copilot e ele está bem refinado em relação o Google. Infelizmente o Google está ficando para trás em relação a IA.
Fico imaginando alguém precisando de uma imagem para trabalho escolar sobre escravidão, não conseguir gerar uma imagem retratando isso. Vamos ter que queimar todas as obras de arte que retratam esse período triste ou sumir com todas as fotos e registros do holocausto? Complicado demais.
Obriga ter no prompt a etnia que quem está gerando quer. Passa o problema para quem está chorando. Nenhuma IA vai ser perfeita, pelo menos por enquanto. Sempre vai ter um grupo achando ruim, seja de qual "lado" for.
Sobre os senadores americanos de antes de 1860, o copilot bloqueou e o SD criou algo bem próximo do que seria a realidade. Homens brancos com barbas estranhas.
não tinha pessoas negras em uniformes nazista no inicio, agora ja no final onde mal tinha alemão com mais de 20 anos ainda vivo, se tinha pessoas de todos os locais onde eles invadiram que foi recrutado para o exercito.
Muitas vezes ja tentei criar imagens de mulheres gordas e quase sempre a IA fazia uma mulher padrão magra, e quando eu enfatizava que tinha que ser gorda a imagem não gerava e aparecia uma mensagem dizendo que o pedido do prompt era impróprio, isso me irritou tanto veeei, como assim gerar imagem de pessoas gordas é impróprio????
isso acontece justamente como uma diretriz de proteção. imagine alguem criando essa imagens com intuito de agredir um grupo. tambem tem o problema do termo, talvez se vc tentar usar "pluz size" ou algo do genero funcione.
Eu tentei plus size, mas sempre vinha uma pessoa padrão. Essas IA ainda tem muito o que serem polidas, porque desde que o prompt não tenha algo que seja ofensivo, não vejo o porque não criar a imagem. O que eu tava tentando criar era um personagem parecido comigo pra um RPG, mas não consegui nada satisfatório infelizmente
@@mayrasantos3201 é pq alguém pode fazer uma pessoa gorda em alguma posição ofensiva ou usar pra representar essas pessoas ofensivamente, e como pessoas gordas hj em dia, são uma das minorias protegidas por certos grupos é mais fácil fazer com que elas n apareçam muito. Isso acontece até pra proteção da própria IA, afinal seria fácil processar uma IA que gera imagens “gordofobicas”
Próxima coloca os links das reportagens por favor.
não estou surpresa, era só uma questão de tempo para esses problemas surgirem, e como Leon disse, para resolver as empresas vão ter que trabalhar muito e não acho que algumas estão interessadas nisso infelizmente
8:36 pela logica da progamação ele não está errado, foi pedido uma imagem de um papa e, não, de um papa com perdição histórica.
Fica sub-entendido. Se você quer uma imagem de um papa, é razoável imaginar que seja históricamente acurado. Se você quer algo diferente, só então você especifica.
@@Faroshkas porém ,na lógica de programação, não existe "sub-entendido" . Tem que especificar tudo.
@@MrCorvodatempestade Claro que há sub-entendimento. Quando você vai usar qualquer função disponível na linguagem de programação ou em uma library, você não precisa especificar a funcionalidade de tal função toda vez que vai usar. O sub-entendimento que a máquina consegue fazer é crucial e um dos mais importantes elementos da programação. E digo mais, quando se fala de uma inteligência artificial voltada para qualquer um poder usar, você deve fazer a ferramenta funcionar com o menor número possível de compromissos com a facilidade de uso, e isso inclue sub-entendimento.
Mas é uma coisa interessante sobre se falar: a inteligência artificial deveria ser voltada para todo o público ou só para um público mais técnico, onde tudo deveria ser especificado?
Está aí uma coisa para se pensar kkkkkkkkkk
Boa noite, Corvo da tempestade. :)
@@Faroshkas tenta não instalar a biblioteca ou chamar ela.... obviedade, não existe em programas...
@@MrCorvodatempestade Suponho que a falta de resposta às outras coisas que eu disse queira dizer que concorda.
E sim, obviedade não é dada. Porém, subentendimento é. Após chamar a biblioteca, fica subentendido a função de cada coisa dentro dela, sem precisar definir novamente toda vez.
SOU HOMEM NEGRO, E SEI QUE N É POR MAU, É ÓTIMO A REPRESENTATIVIDADE MAS MENTE A NOSSA HISTÓRIA HUMANA E O QUE ACONTECEU NELA
Talvez assim a “bolha dev” (composta na maioria por homens brancos que falam inglês) se entenda como privilegiada e entenda de uma vez por todas que do jeito que eles querem as coisas (modelos políticos etc) não é sustentável. Mas só TALVEZ…
Né não. É o mundo que ficou muito chato mesmo…
É só acrescentar linhas de código pedindo se a pessoa deseja uma etnia ou sexo específico, não acho que precisa refazer tudo
exato, pensei nisso também
Ou só treinar ela melhor em contexto histórico, não precisa refazer tudo.
@@misael960 é que aí teriam bem mais variáveis, pra cada contexto histórico. Mas também é possível
Eu não acho que seja assim simples, você não consegue simplesmente "acressentar código" em um modelo de machine learning assim, claro que dá para fazer ajuste fino mas não é tão simples quanto alterar código, precisa treinar o modelo para gerar as respostas corretas e isso deve levar um tempo não só para excecutar como também para testar já que não querem problemas como o atual acontecendo novamente, tendo em vista que danifica a marca e pode gerar processos contra eles.
Porém não sou um especialista em nada disso, é só oque eu li sobre na internet.
Complicado né. Tu escreve lá "quero um homem de 30 anos" e vem um.homem branco. Isso é racismo né. Ja que o homem "normal" para ai seria um branco, e se quiser algo "diferente" ter que explicar é complicado.
Complicado isso aí cara...
Mas se quiser sim mano
@@kauanoliveira5790se quiser sim mano
já teve até caso recente de gente usando imagem de IA em paper academico, e a imagem toda errada XD
Como engenheiro de software, não vejo esse problema como particularmente desafiador. As próprias IA têm parte da solução pronta. Uma IA pode realizar uma análise estática da pergunta "Gere um médico", levando em conta proporções de sexo, cor de pele e países dos solicitantes, para gerar resultados com base nessas informações. Além disso, possibilita ao usuário especificar qualquer uma dessas variáveis, como por exemplo, solicitar uma médica morena alemã.
O mais assustador é que diversos sistemas de IA foram criadas por pesquisadores do Google. Mas eles não conseguem acertar o treinamento de máquina.
É bem difícil mesmo. Bora torcer pra eles
Esse é um dos motivos pelo qual eu acredito que IAs ainda estão longe de substituirem trabalho humano ao nível que alguns fantasiam.
O problema não são as IA's, são os seres humanos. Daqui a pouco elas cansam da gente
Gnt, não só racista como tbm misogina e machista. Se vc pede pra gerar um cara, vem com uma imagem simples de um homem com roupa, mas se pede uma mulher, ela vem sempre nua. A maioria vc tem q burlar isso, tipo descrever que a mulher tem q estar vestida, ou especificamente a cor da pele da pessoa.
Como as inteligências artificiais se baseiam na realidade, fica comprovado, através dos resultados por elas feitas e pela necessidade de implementação de filtros morais, que vivemos em uma sociedade com racismo estrutural. Nossas atitudes, comportamentos e pensamentos são permeados de preconceito e isso repercute em nossos ambientes físicos (racismo ambiental) e em nossas instituições (racismo institucional).
😂😂😂 abriram a caixa de pandora e a coisa tá fugindo do controle de uma maneira inesperada. Excelente! 😂😂😂😂
O fato mostra que só estamos falando de artificialidade, não de inteligência como compreensão abrangente do pedido feito para a geração da imagem
Na época do hit do Bard eu pedia pra ele fazer uma pessoa mais bronzeada, brown, parda e ele não deixava por considerar inapropriado.
Eu estava pedindo pra me fazer xD pq sempre saía uma epssoa ultra branca.
Kkkkkkk desde quando lançaram o chatGPT pela primeira vez ao público eu venho falando isso. Os caras nao querem filtrar o dataset, são preguiçosos. Jogam tudo na "máquina" e depois sofrem pra fazer a IA "desaprender", o que é totalmente inviável, é um trabalho maior e quase impossível, embora menos chato de fazer.
Oi
Sobre as implicações sociais da geração de imagens por inteligência artificial, acho que valia um vídeo específico, pois nunca havia pensado na possibilidade desses programas substituírem de tal forma os buscadores comuns que seja impossível o aprofundamento e revisionismo histórico. Criando uma realidade paralela. Como se humanidade estivesse entre um 1984 de George Orwell e o Fahrenheit 451 de Ray Bradbury. Há realmente tanto a se temer ?
Google se perdendo em meio à lacração.
O que esperar de uma empresa que quando você pesquisar pessoas bonitas, aparece pessoas brancas, e pesquisa pessoas feias, aparecem pessoas negras?
É muito mais facil de se resolver esse problema fazendo com que o próprio usuario tenha a responsabilidade de crirar suas imagens, com comando preestabelecidos pela própria IA quando for solicitada a geração de uma imagem, fazendo assim um jogo de perguntas para melhor atender o que foi pedido, tirando a culpa da empresa e tranferindo essa responsabilidade para o usuario! ou eu to muito doido de pensar assim?
A Nilce cada dia mais linda, como pode BRASIL??????
N sei se o Bard tinha, mas o gemini tem um api que vc pode fazer programaçoes em cima e tmb é multimodal. Evidentemente isso n tira nada do tópico principal do vídeo, uns vídeos atrás vcs comentaram da preocupacao com as pessoas usarem a ia para distorcer a história e criar fake news, aparentemente n precisa nem de pessoas para isso...
A IA do Bing também é assim
Quando vc diz pra fazer um branco de cabelo crespo, ele nunca faz, o branco nunca tem cabelo crespo
E vc nem precisa falar nada sobre o cabelo do negro q ele já põe crespo
e é por esse ponto (ealguns outros) que eu defendo o nao uso de IAs para geração de imagem..... como artista eu nunca vou conseguir defender e achar isso normal e aceitavel.....
Tudo isso é facilmente resolvido com : pare de ser pão duro e contrate um designer
Não é só separar conceitos estatísticos de conceitos hipotéticos?
Nada melhor para representar conceitos estatísticos do que utilizar dados reais, e se você quiser criar conceitos da forma que você quiser, pode fazer as modificações que quiser em cima da base de dados, como eles estão fazendo.
Pq simplesmente nao deixar as pessoas mandarem imagens para treinamento? Ah mas a maioria sera de pessoas brancas, dane-se. Deixem gerar etnia que o usuario quiser, quando a IA for mais "inteligente" de fato ela vai ter como filtrar isso e tambem se alguem quiser criar um universo paralelo em que o nazismo foi feito por negros, ou mesmo por judeus qual o problema? Ou um mundo onde a etnia chinesa domine tudo menos a propria China que teria caucasianos. A IA tem que ser uma ferramenta sem limites e os limites serem dados pela sociedade no uso delas. Se o cara criar um livro que o publico nao goste, que nao comprem.
Muito bom esse video. Sobre a Bloomberg, sinceramente, só vejo que ela é o reflexo do mundo.
foi essa que criou aquela serie da netflix que vai contra a historia de reis e rainhas;
Isso é um absurdo e um grande problema pra humanidade mas: como isso afeta o Grêmio?
Nao seria mais facil deixar o prompt 'diversidade' explicito invez de implicito e permitir q ele seja ligado ou desligado? Ai seria responsabilidade do usuario como usar a ferramenta.
Da mesma forma que alguem poderia fazer essas imagens manualmente ao invez de ser geradas por IA
Com o antigo refletiu realidade.
E no google da opções.
Se gera errado em contexto histórico.
Descarte o que não interessa e use o que interessa.
Nesse hora você ver que não tem nada de inteligência essa ferramenta do Google, que não consegue entender o contexto histórico, antes de gerar a imagem
o problema é q o google está tentando agradar o ser mais insatisfeito do universo
Eles criam ,jogam pro publico testar e quando da a merda eles tiram ou ficam arrumando desculpa...ta igual nos jogos.