Servidora pública é confundida com foragida da justiça por sistema de reconhecimento facial da PM RJ
HTML-код
- Опубликовано: 12 сен 2024
- Uma servidora pública registrou queixa na Polícia Civil após ser confundida com uma foragida da Justiça pelo sistema de reconhecimento facial no centro do Rio de Janeiro, durante um evento de igualdade racial. Ao UOL, Daiane de Souza Mello, 35, disse acreditar ter sido vítima de racismo.
Aí tinha muitas testemunhas, daí não dava para fazer nada!!!
Agora, imagine se fosse um negro, pobre, voltando do trabalho às 23:00, andando sozinho com uma mochilinha nas costas???
Ia apanhar até “confessar” que era ele
Exato. Por um reconhecimento facial completamente fajuto a polícia pode se sentir legitimada a bater primeiro e perguntar depois se for:
- em área pobre
- com suspeito negro
- os dois
Já já o cara tá lá gritando "tá bom, tá bom, eu sou o coelho".
O que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
ruclips.net/video/jZl55PsfZJQ/видео.html
Esse não precisa de reconhecimento de máquina, a polícia já vê ele como bandido.
Aí já era . Pá pá 😢
Que estranho que 90% das vezes sempre é com o negro....
Só caso "isolado"
90% da população brasileira, é feita de loiros de olhos azuis?
Acho que não...
A maioria da população brasileira é formada por negros e pardos...
Pessoas brancas também são presas o tempo todo.
O procedimento do policial está certo, agiu correto, respeitosamente e tranquilo.
Os algoritmos foram pouco trabalhados para reconhecimento de rostos de pessoas afro.
@@Donarfloydr Seria algo compreensível caso o pais não fosse a maioria pessoas negras.
Isto é algo que todos têm conhecimento visto que existem processos em outros países.
O que só me faz pensar que é algo intencional.
@@Alex.878 é porque só importaram o sistema sem nenhum tipo de adaptação.
E se fosse uma pessoa sem esclarecimento e desempregada, ou em situação de rua?
Se tivesse um porsche eles teriam certeza que foi engano da inteligência artificial.
começou o vitimismo
@@user-ye4fp5mh4b Já viu rico passar por isso?
Verdade!
@@user-ye4fp5mh4b Falar a verdade agora é vitimismo?
@@user-ye4fp5mh4b Você trabalha naquela instituição em que seus agentes fardados matam só preto e pobre na favela e diz que "diretos humanos é para humanos direitos" e cujo conceito de humanidade essas pessoas não se encaixam para sua instituição?
Esse reconhecimento facial está dando muito problema, tem pessoas processando o estado e policiais devido serem confundidos com bandidos.
Eis aí porque o Brasil necessita de banco de Dna e nem só o Brasil isso deve ser mundial, mas a quem interessa e um banco de sem para casos de estupros e além de descobrir se as menorzinhas engravidaram dos droguinhas ou dos papaizinhos, irmãozinhos, dos professorzinho, e ai em diante.
Mas o pior foi a lacração com o erro da máquina, mas quando disseram que o PM é negro sofreu racismo mandando troca-lo de emprego. Aonde mora o erro?
O que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
ruclips.net/video/jZl55PsfZJQ/видео.html
Vamos retirar as câmeras então né?
@@bruno_coelho35 A crítica é exclusivamente direcionada ao sistema de reconhecimento facial e você vem falar de câmeras. Baita interpretação, viu? Parabéns!
@@ericklima9253 Sim. Devemos retirar as câmeras, é melhor. Atualizar o software de reconhecimento será muito trabalhoso.
Mais um" reconhecimento facial" que falha.
Por que esses fatos lamentáveis só contra negros?
Vai lá na região Norte principalmente a amazônica e veja se isso só acontece com Negro, tem que ser muito troux4 ou uma put4 ocidental pra achar que no Brasil isso só acontece com Negro.
Por que a maioria que comete crimes são negros?
hoje em dia tudo tem que se comparar o que um negro e um branco faz no fim somos todos iguais infelizmente devido ao governo causar transtornos acabam os pobres não só negros como pardos brancos também acabam sofrendo com isso.
O que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
ruclips.net/video/jZl55PsfZJQ/видео.html
Porque uma outra mulher negra cometeu um crime!
ESTÁ TUDO ERRADO. Esse tipo de confusão NÃO PODE ACONTECER. Numa outra situação o sujeito será INTERPRETADO como suspeito e pode acabar tomando TIROS antes dessa checagem ser concluída. Porque É ASSIM que ocorre nas periferias do Brasil. Muito preocupante.
só isso? e o constrangimento ?
O que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
ruclips.net/video/jZl55PsfZJQ/видео.html
Ela podia cobrar o estado pelo constrangimento. Um bom advogado.
E eles acreditam de pés juntos no tal do reconhecimento facial😮
Caramba, gravíssimo essa situação nesse app
Eu sou tecnico de I.T, a inteligencia artificial é treinada com dados e quando é exposta a dados, por exemplo, que circulam na internet, a realidade tem impacto.
Ele aprende com o que lhe é mostrado. Deste modo, como vivemos em uma sociedade racista, é normal esse comportamento ser replicado pela maquina.
Isto não é da cabeça da servidora pública exitem milhões de estudos que mostram isto e também processos ganhos na justiça.
A negligencia no treinamento da A.I na identificação de rostos com fenotipos africanos é também uma caracterísca que contribuição para o racismo.
Concordo plenamente. A inteligência artificial está sujeita ao racismo estrutural.
Concordo com você, mas, mesmo assim, sou programador de TI. Um estudo mostra que a IA pode seguir os vieses da sociedade, mas precisamos considerar qual modelo estamos falando. Às vezes, esse modelo é diferente e pode estar errando também. Outro ponto é que, se só foram averiguar e não tentaram prender a pessoa nem nada, está ok. Isso apenas se torna mais um dado para a correção e treinamento do modelo, certo?
@@sirmild938errado, e se um cidadão confundido se assusta e corre, ou vai pegar um documento na bolsa, pegar um celular pra filmar a abordagem e os policiais enchem ele de azeitona, como que fica o desenrolar da história? Se não é 100% ou pelo menos 99,9 não implante essa porcaria de tecnologia...
Up
@@acepereefica azeitonado.
No Alphaville eles não têm esse ímpeto
bla bla alphaville o de sempre ja deu a cota de fala disso fala de outro assunto pq vc n fala do criminoso que matou o pm seu merda.
Vai ter gente inocente sendo morta!
A Programação da máquina é para considerar suspeito todo indivíduo de pele Negra , quem programou quem deu a ordem da programação, para estabelecer esse viés racistas, onde duas pessoas completamente diferente são considerada suspeita e exibe uma foto totalmente diferente da fisinomia da pessoa , a unica coisa comum entre elas é a negritude, ou a pele Negra.
Se fosse branca, os policiais teriam pedido desculpas de joelhos e levariam a moça até a casa dela.
Para de fogo. Eu entendo que negros lutam por seus direitos, mas vcs inventam tantas desculpas. Se fazem de vítima
@@thiagoaraujo8414inventam desculpas? Se fazem de vítimas? Vc é só mais um negacionista. Enquanto não é no seu cool, é só mimimi, não é mesmo?
A criminosa é negra e bem parecida com a servidora. Até o líder social alí teve que chamar à razão o pessoal.
@@thiagoaraujo8414 oh, mais um branco privilegiado. Surpresa zero.
Confortável sair de casa sem ter medo de ser abordado pela polícia, né?
O que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
ruclips.net/video/jZl55PsfZJQ/видео.html
O sistema de reconhecimento facial é extremamente falho e uma tecnologia que ainda precisa de muita melhora, muita modificação.
Tem que divulgar sim não tem que esconder nada o servidor público em serviço tem sua imagem atrelada ao serviço que presta se não quer aparecer tem que fazer serviço interno!
Eu escrevi meu TCC sobre isso e ninguem nem pra me dá um prêmio
Tcc não é ora prêmio não, só se for em formato de artigo científico. Aí mesmo assim pode oi não ser publicado. Imagnie ganhar prêmio.
@@botafogo55 foi só um modo de dizer, claro que eu sei que TCC não dá prêmio. E mesmo assim na minha faculdade os que tiveram nota acima de 9 seriam cotados pra tipo uma publicação, eu tirei 9, mas, aparentemente não se importaram tanto com o meu tema que foi exatamente esse do vídeo.
@@jessieranzz6699 eu faço pós e ninguém lá liga pra graduados. Gostam de pós-graduação pra cima.
Eu metia um processo por essa situação vexatória! Palhaçada!
Tinha que ser no Rio de Nojeira mesmo.
E tem gente que ainda fala que quem não deve não teme, nesse caso ainda deu certo mas tem muitos outros que não, no Brasil só o que tem é pessoas sendo injustiçadas, enquanto quem precisava ser preso está solto.
Tecnologia do mal.
Essa IA pode ter sido treinada em uma população branca ou em outra população com características próprias, não vai ser boa o suficiente para reconhecer outras etnias nunca. Falha grave da polícia colocar isso nas ruas, IA's na segurança pública precisam ter uma qualidade absurda para serem usadas. Poderia ter acontecido uma tragédia.
Incrível como esses casos vem mais do estado do Rio de janeiro e São Paulo
São Paulo e Rio de Janeiro tem a maior população criminosa e carcerária do Brasil. 40% de todas as ocorrências criminosas que ocorrem no país estão divididas entre RJ e SP.
O sistema acusou e o PM foi lá checar, houve truculência, desespeitou ? Não? Então segue o baile.
Parabéns ao policial miliatar pela abordagem e postura. Em momento algum se eximiu das explicações. Parabéns também ao senhorzinho que entendeu a situação e ajudou na explicação aos demais, o que poderia desenvolver num conflito maior.
Até a Inteligência Artificial é racista! PQP 🤣🤣🤣
infelizmente o pessoal tá usando tudo como racismo, caiu uma folha no chão, poxa foi racismo pq eu estava passando, hj em dia tá foda
@papa_defunto_do_bairro então quando a gente faz um RG eles tiram nossa foto né? O Banco de Dados deveria ser completo. Afinal, não existe RG, CNH sem foto.
@@kadumonte1ro Exatamente. As pessoas andam muito sensíveis.
@papa_defunto_do_bairro sou de T.I aqui na minha cidade e todo lugar que eu já vi o sistema do banco de dados fica com a inteligencia da policia, essa IA provavelmente tem acesso a muitos mas muitoosss RG,CNH com fotos, isso que aconteceu não tem literalmente nada a ver com racismo, é um bando de retardado que ta falando isso, já vi até cara de T.I falando essa merda, nunca deve ter trabalhado na vida com IA, nesse caso ou foi realmente um erro pelo motivo da IA ainda estar aprendendo, isso acontece com humanos a maquina tbm erra é simples, ou realmente faltava informações para ela, como exemplo possivelmente no local avia poucas fotos negras para a IA estudar, e isso pode vir do fato de 10,2% apenas da população ser negra, a maior parte é parda e branca, isso pode complicar bastante a IA de compreender, mas com o tempo esses erros se deus quiser vão acabar, pois não queremos ver inocentes na cadeia
@@marco_hipolito Como alguém que estuda sobre o assunto, digo que isso é totalmente possível. Dependendo de como ela foi treinada, ela pode chegar em conclusões preconceituosas. Entretanto, o problema também pode vir de como os dados estão sendo tratados: coisas como cenário e roupas podem atrapalhar o treinamento do modelo. Como não sabemos que dados foram usados para treino e como foram usados, é difícil chegar a uma conclusão, porém a hipótese da moça é totalmente válida
Na.minha.Opiniáo.Essas.modernidade.so.veio.pra.arasar.a.vida.da.gente..no.mercado.o.moço.que.entende....perdeu.o.dinheiro.dele.fazendo.Pix.imagina.quem.náo.entende.To.Lascada.Valeime.Deus
Me esclarece uma dúvida: pq tantos pontos finais num único parágrafo? Não estou zombando. É que vejo muitas pessoas escrevendo assim.
@@josemeirerodrigues3554deve ser corretor do celular, algo assim
Simples, processa o estado e a PM do RJ por toda situação constrangedora.
Mesmo com toda tentativa de "explicação" do policial, ele poderia ter evitado o constrangimento a uma pessoa que nada tem a ver com a procurada pela justiça.
Impressionante como a policia do Rio quer prender todo negro na rua!.
@BrunaLopes2s2claro que tem problema pq não acontece com branco
@BrunaLopes2s2 podia acontecer mais vezes com branco né
@BrunaLopes2s2t tem problema pq a pessoa é inocente até que se prove o contrário e nem todo negro é bandido
@@biasoares1523 acontece na mesma proporção com brancos.
@BrunaLopes2s2 Ei
vc quer mesmo tocar isso em frente?
Vamos ver se tem essa coragem.
Bom Jesus da Lapa -Bahia) aqui nossa cidade tem esta câmera reconhecimento facial do estado .são mais de 70 cidades na BAHIA com esta câmeras etc. Tem qualificar os agentes para abordagem com respeito diálogo sempre. Que DEUS conforte esta moça do bem. 👊👊👊🙏🙏🙏🌵🏜🇧🇷🌎2024 BAHIA .
O que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
ruclips.net/video/jZl55PsfZJQ/видео.html
Eu sou branco e já aconteceu comigo na entrada do estádio. Checaram, viram que realmente houve um engano, me fotografaram e fotografaram meu documento afim de justificar que realmente houve um equívoco e segui minha vida tranquilamente. Esse tipo de situação não deveria acontecer, mas se aconteceu segue o baile gente.
Perfeito e exatamente isso que pensei essa merda deve dar errar bastante uma tecnologia que esta longe de um taxa de acerto de uns 99%
Segue o baile o caramba, processo no Estado,por isso tem tanta coisa errada nesse país,por que o povo segue o baile
*_NA CHINA, JAPÃO E CORÉIA A INTELIGÊNCIA ARTIFICIAL NEM TENTA RECONHECER 😂_*
Tem que ter muita cautela,existem pessoas muito parecidas ,as vezes até mais que o próprio irmão.
Preocupante!
Processo, dinheiro e churrasco 👍👍👍
Mas uma pataquada deste reconhecimento racista facial . Uma ferramenta para botar mas pobres e maus negros na cadeia , lasca um processo neles
*_NA CHINA ATÉ O POLICIAL QUE FAZ A CHECAGEM É SUSPEITO, LÁ A INTELIGÊNCIA ARTIFICIAL BUGA😂_*
São bem parecidos também.
Em 2024 o cara pedindo para que imagens não fossem parar na Internet kkkKKKKKKKKKKK
😂😂😂😂😂😂😂
O que a gente ainda vai ver de merda acontecendo por conta da tal IA não vai ser brincadeira!
Usar um sistema assim pra prender alguém, o Brasil é uma piada mesmo 😂
Muda sistema, muda tudo, continua difícil ser negro no Brasil.
Ate qdo vamos aceitar isso ?!
Aqui em Sergipe deu problema duas vezes seguidas somente com pessoas negras.
Há males que vem para o bem, aqui onde moro uma mulher foi presa por se parecer com uma criminosa foragida, foi algemada e colocada no camburão, ganhou 70 mil de indenização
Esse reconhecimento facial aí ainda vai colocar muita gente inocente na cadeia isso e ridículo.
Depois do constrangimento aí tá tudo bem vergonhoso.
Fui confudido com um policial em um velório, por pouco não fui pro caixão tbm😂😍
Deve processar todos os agentes e estados isso e vergonha
Joga fora essa maquina
Trabalho excelente do segurança, padrão corretíssimo.
Se a moça que foi"confundida" com foragida da justiça, fosse uma pessoa desempregada e em situação de rua, teriam levado ela presa. Não pode deixar isso barato não.
Até quanto isso? Até quando essa merda?
Quando é com negro já querem algemar, agora quando é com o cara da Porshe só faltam oferecer um cafezinho !!!
Político corrupto é confundindo com gente honesta e nunca vai preso...essa aberração é o Brasil!
Eu não faço essa porra de reconhecimento facial. Me recuso a isso.
Não adianta mostrar que deu errado fora do Brasil, vão lá e implementam o negócio mesmo assim. Coitada da moça, imagina o susto!
O policial foi super educado, explicou a situação e pediu para ver a identidade dela. O cara não tem culpa se a IA errou e ainda por cima sofreu racismo, não é por que ele negro que não pode ser policial.
Policial de bem nunca falha 😂
A I.A disse:
Eu cherei demais e confundi as pessoas.
Chama o Jhon Textor ele é experte no assunto de IA
Como disse Carmen Lúcia...
O Brasil tem uma sorte inacreditável neste assunto, sabem porque?
Nos anos 90 trabalhei na capital quando os bolivianos e peruanos estavam abraçando várias oportunidades de trabalho por aqui...
Se esta identificação tivesse em vigor na época, todo mundo hoje estaria enquadrado porque segundo eles mesmos afirmam, " todos nós somos parecidos, todos nós temos as mesmas caras... "
Entenderam isso, povo brasileiro?
Tirem suas próprias conclusões 😂😂😂
Ainda tem gente que se contenta com esse mundo
IA falhou, polícia foi checar, constatado que não era a pessoa foragida, segue normal. Nada demais.
Se fosse comigo, não seguiria normal não.
Faltou o "desculpe erramos, perdoe o constrangimento".
E sobrou arrogância do segurança quando viu que errou.
Agora vamos imaginar a mesma situação em uma favela. Como era mesmo?
"IA falhou, polícia foi checar..."
Complete a história.
Mas muitas vezes que a policia 'checa' com bala, se é um homem preto na favela poderia estar morto com o guarda chuva na mão antes de qualquer verificação. Falha grave da polícia colocar um sistema ruim nas ruas.
O que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
ruclips.net/video/jZl55PsfZJQ/видео.html
@@Resiliencia_CrisO que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
ruclips.net/video/jZl55PsfZJQ/видео.html
Situação humilhante...........
............
.....
Rapaz é brincadeira viu a policia nao pode trabalhar nao ?? os cara fez o certo foi la conferiu e liberou normal
Eu sou negro mais todos nós estamos sujeitos a uma abordagem policial que seja com educação e o policial estava sim com educação e parabéns pela postura só poderia ser mais tranquilo tranquilo eu sei tem caso e acaso !!!
Acorda manezinho ! Pois não existe abordagem policial com educação.
@@J.C.OLIVEIRA-so2uwexiste, mas tem que ser branco primeiro
qualquer modelo de IA comete erros.A tarefa é reduzir ao máximo a quantidade até o ponto de ser aceitável.
Todo cidadão tem o dever de se identificar se solicitado por qualquer autoridade competente. Andem sempre com documento de identidade. Tecnologia não é infalível e qualquer pessoa que seja constrangida tem o direito de processar o Estado. Sobre racismo não vou opinar, não é meu lugar de fala.
Pelo visto quem coloca os dados para a IA fazer estas identificações é um bando de racistas, só acontece isso com pessoas negras. Tem que processar os envolvidos e o órgão público que utiliza estas tecnologias desta maneira.
Eu sou tecnico de I.T, a inteligencia artificial é treinada com dados e quando é exposta a dados, por exemplo, que circulam na internet da realidade.
Ele aprende com o que lhe é mostrado. Deste modo, como vivemos em uma sociedade racista, é normal esse comportamento ser replicado pela maquina.
Isto não é da cabeça da servidora pública exitem milhões de estudos que mostram isto e também processos ganhos na justiça.
A negligencia no treinamento da A.I na identificação de rostos com fenotipos africanos é também uma caracterísca que contribuição para o racismo.
Impressionante o pessoal militando no final pqp
Eita indenização maravilhosa!! ❤😂
Se não tivesse as testemunhas ao redor dela, era bye bye tchau e bença!
Eu que sou preto, careca, adoro andar de chinelo, bermuda e camiseta, ja fui confundido várias vezes. Enfim tô ferrado, até explicar que sou Professor, tenho diploma A, B e C, já terei tomado muita porrada.
Bom, se o sistema indicou como pessoa procurada, a autoridade tem o dever de averiguar! Cabe ao policial, como todo cuidado e reserva, checar a identidade e confirmar se realmente é o caso. O problema é que agora tudo viraliza, as pessoas gostam de complicar algo teoricamente simples. Mimimi chato, a pessoa só porque é negra acha que não pode ser abordada.
Que dramalhão mexicano ...
Ela ainda diz:
-A Inteligência Artificial é racista .... kkkkkkk
Ela não tem culpa de ser parecida com a procurada, mas não precisa fazer drama por conta da abordagem.
Todo negro vai ser Suspeito. Como sempre foi.
Bla bla bla... obrigação de checagem se caiu no sistema!
A onde é isso? É naquele Estado governado pelas facções?!
Agora até o sistema de IA é racista AFF.
A inteligência artificial foi calovrada pela PM 😂
Pedir a identidade quando a imagem nem se parece? Piada né!
como sempre, incompetentes.
Reconhece um chinês do outro mas no caso dos negros "é tudo igual". Logaritmo racista
Atira e depois pergunta.Essa I.A é a imagem e semelhança da polícia racista do Brasil.E esse papo de que negro não é racista com outro negro pode ser nos EUA.Aqui no Brasil existem alguns negros tão racistas quanto brancos.
A "inteligência artitificial racista", não se aplica ao modelo de reconhecimento facial do caso, não tem nenhuma base científica nessa afirmação. O que ocorre é algorítimo mal treinado ou câmeras ruins. Algorítimos matemáticos fazem apenas aquilo que são programados para fazer. A menos que fossem generativos (modelos usados em geração de imagem e chat). Parabéns ao policial, explicou o procedimento, verificou, e concluiu o fato. E ao Luís Eduardo, como foi chamado, por entender e explicar o caso.
Essas IAs, por terem sido desenvolvidas principalmente nos EUA, foram treinadas mais pra identificar rostos e traços de pessoas caucasianas, se botar pra reconhecer um indiano, por exemplo, ela não terá base suficiente.
Eu sou tecnico de I.T, a inteligencia artificial é treinada com dados e quando é exposta a dados, por exemplo, que circulam na internet da realidade.
Ele aprende com o que lhe é mostrado. Deste modo, como vivemos em uma sociedade racista, é normal esse comportamento ser replicado pela maquina.
Isto não é da cabeça da servidora pública exitem milhões de estudos que mostram isto e também processos ganhos na justiça.
A negligencia no treinamento da A.I na identificação de rostos com fenotipos africanos é também uma caracterísca que contribuição para o racismo.
Verdade que o policial podia ter pedido desculpas pelo constrangimento causado, não acha?
Nãooooo pra que.
Agora vamos imaginar a mesma situação numa favela com maioria da população negra. IA falha, reconhece pessoa errada. O que acontece?
@@Alex.878 Então não é racismo, até porque esses modelos não possuem consciência / senciência. O racismo se baseia na superioridade de raças ou etinias. Como eu disse o modelo pode estar mal treinado ou estar usando uma lente/camêra ruim, que combinado com uma tentativa de reconheciemento em uma cena mostrando apenas metade do rosto, cuminou em erro. E deve ser corrígida. Pelo que li, o programa já é usado no país desde 2018, e tem origem russa. Mas não se pode generalizar de que todas as IAs são racistas. Isso é um caminho para pessoas não técnicas correrem para aprovar leis sobre o setor.
@@Danielbx4265 Eu técnico de I.T programo em C++ e Java.
Estás totalmente errado no que dizes.
Em programação temos por exemplo conditional structure, nada mais é que uma tomada de decisão de acordo com o dado que se recebe.
O algoritmo por si só é a descriminação de dados.
Sim, o algoritmo tem a personalidade do programador porque é a sua forma de pensar.
Eu posso criar um programa de identificação facial que tenha maior ou menor tolerância à diferença geometria faciais caso o tom de pele seja mais escuro.
O racismo em algoritmo e inteligência artificial é um problema que não é de hoje.
Estes especialistas de internet são uma piada.
Emocionados, máquinas não são racistas, elas não podem ser racistas, elas não têm personalidade para serem racistas, isso é tudo balela, sem fundamento jurídico.
Se houve erro, o procedimento correto é pedir a documentação da suspeita, averiguar no sistema e, caso conste o erro, encerrar a abordagem. É simples, é prático, é objetivo. Não tem "A", não tem "B".
Quem praticou um fato preconceituoso foi a mulher que disse que o policial negro não deveria estar polícia só porque é negro, sob pena de ser "ignorante". Isso é segregacionismo, ela quer dizer onde os negros devem estar? Ela é a voz da razão e quem a contrapõe é "ignorante"? Ela quer ditar como ele deve conduzir seu livre-arbítrio com base no que ela pensa ser o correto?
Vocês, que dizem lutar contra o preconceito, conseguem ser piores do que quem dizem combater.
A IA só reconhece negro como suspeito?
Eu tô vendo coisa ou esse sargento parece estar embriagado?
Tá beleza, o segurança lá estava apenas fazendo seu trabalho.
Mas dói assim no fundo do rabo extrair um "me desculpe, foi um erro nosso, perdão pelo incômodo que causamos"??????
Porque pô, vamos reconhecer que esse erro de procedimento gerou um constrangimento? E aqui foi sem violência. Na favela, teria sido com o mesmo cuidado?? ou a polícia ia descer a porrada primeiro e depois checar a identidade? É essa a questão!!!
A questão não é se O SEGURANÇA foi racista e sim se o sistema que se engana ao reconhecer "suspeitos", por acaso negros, não abre a porta para que abusos sejam cometidos, por acaso contra negros, como sempre.
Então sim, a questão do racismo se coloca.
Com ou sem racismo, ninguém tem que ser abordado na rua porque um máquina maluca acha que uma pessoa é outra. E se houver abordagem, ela tem que ser muito, mas muuuuito cuidadosa e educada. Se ela for negra, aquele que abordou tem sim que se perguntar se a abordagem não é racista. E, em caso de erro, tem que MEGA pedir desculpas. A última cosa a fazer é manter a arrogância que visivelmente esse segurança exibiu.
Não pediu desculpas, não desceu do pedestal, demonstrou certa irritação porque a cidadã não se deixou abusar, continuou com essa de que só está fazendo seu trabalho de segurança (que só conseguiu incomodar pessoas de bem), levantou o tom quando viu que complicou para dizer que "já está resolvido" ao invés de dar a explicação que estavam pedindo? não tenho nenhuma pena de que seja exposto e processado.
Eu sou tecnico de I.T, a inteligencia artificial é treinada com dados e quando é exposta a dados, por exemplo, que circulam na internet da realidade.
Ele aprende com o que lhe é mostrado. Deste modo, como vivemos em uma sociedade racista, é normal esse comportamento ser replicado pela maquina.
Isto não é da cabeça da servidora pública exitem milhões de estudos que mostram isto e também processos ganhos na justiça.
A negligencia no treinamento da A.I na identificação de rostos com fenotipos africanos é também uma caracterísca que contribuição para o racismo.
@@Alex.878 Bem pontuado e nossos argumentos convergem, me parece: não é que o agente SEJA racista (não sabemos, e é irrelevante), e sim que o sistema reproduz uma estrutura racista de abordagem a pessoas na rua.
Eu que sou branco não temo ser apontado como suspeito por uma IA de reconhecimento facial, negros sim. Mesmo assim, se isso acontecer comigo, não temo ter o mesmo tratamento que negros terão.
E, é isso mesmo que você falou, a IA está sendo treinada por pessoas que acham negros mais suspeitos que brancos. Resultado: ela apita mais para negros do que para brancos. Lá na frente, alguém vai justificar o racismo dizendo que "a máquina é impessoal" e que a IA não tem alvo prévio. Mas, como você disse, ela tem o alvo que quem a ensinar lhe der.
@@Alex.878 reconhecimento facial não é treinado assim: olha esse é bandido e esse não kkk ela é exposta a milhares de imagens diferentes e aprende vários padrões de fenótipos diferentes e depois disso é "calibrada" por milhares de pessoas q trabalham como AI trainer, comparando as imagens e apontando se realmente se trata da mesma pessoa ou não, não tem apontamento de "criminoso e inocente", e ao contrário do q se imagina a grande maioria desses softwares não pegam simplesmente imagens aleatórias do google, eles tbm pagam pessoas para cederem essas imagens de si, até pq precisa ter um certo controle de qualidade e certeza de que se trata de pessoas reais, sem filtros e etc. Eu trabalho com isso. Os maiores problemas estão justamente nessas duas etapas: a de construção do banco de imagens e na "calibragem", são poucos dados coletados de pessoas negras e mestiças e muito "desleixo" (não consegui encontrar uma palavra melhor 😅) dos TLs e desenvolvedores brancos q são maioria. Essa deficiencia nos dados acaba gerando uma baixa eficácia no reconhecimento, tem vídeos mostrando softwares q simplesmente nao reconhecem pessoas negras como uma pessoa por exemplo, e no caso dessa moça teve uma identificação equivocada. Enfim, desculpe o textão, vc não está errado em afirmar q existe racismo no reconhecimento facial, mas isso não ocorre por puro bias e aproveitei a oportunidade para explicar melhor como funciona todo esse processo q é mto desconhecido até no nosso próprio meio da tecnologia.
@@lialogica Eu programo em C++, Java e frequento agora um curso de cyber security and forensics computing .
Estás totalmente errado no que dizes.
Eu consigo encontrar uma palavra melhor que é racismo, por este motivo um país que é mais de 50% negro não age de forma preventiva para que tecnologias que prejudicam a população negra não sejam usadas na segurança pública.
Eu não tenho acesso ao código, mas tenho ao resultado dela que marginaliza e constrange pessoas negras.
Em programação temos por exemplo conditional structure, nada mais é que uma tomada de decisão de acordo com o dado que se recebe.
O algoritmo por si só é a descriminação de dados.
Sim, o algoritmo tem a personalidade do programador porque é a sua forma de pensar.
Eu posso criar um programa de identificação facial que tenha maior ou menor tolerância à diferença geometria faciais caso o tom de pele seja mais escuro.
O racismo em algoritmo e inteligência artificial é um problema que não é de hoje.
Tem que divulgar quem é o policial
Não reconhece rico e branco agora negro e pobre
Vou ser bem sincero, sobre esses sistemas e algumas abordagens (uma boa parte delas, bem grande mesmo), sei que há preconceito. Mas, às vezes, dependendo do caso, se eles só pararam e foram conferir, está ok.
Por que digo isso? Sou alemão, loiro e de olhos verdes. Aqui em SC, já fui parado por uma moto policial com o revólver apontado para mim. Mandaram-me levantar a camisa, eu levantei e perguntaram onde eu morava. Falei que era próximo a um lugar onde estavam procurando um assaltante, e me liberaram.
Se for apenas essa verificação e depois der o ponto negativo, ok. Agora, se ficarem importunando a pessoa, aí acho errado. Sobre a IA ser racista, é claro que pode ser, mas não se pode generalizar porque são modelos diferentes. Só porque em uma pesquisa falaram que uma IA é racista, não significa que seja o mesmo modelo usado em outros contextos.
(Para simplificar, vou me referir ao documento do Word como uma analogia para pessoas que não são da área de IA.) Um modelo é como um documento do Word: se um texto tem racismo, outro pode não ter. Digo isso porque, se eles estão treinando um modelo totalmente novo, o modelo antigo pode ter vieses. É necessário pesquisar sobre esse modelo específico para verificar se ele tem viés racista.
De qualquer forma, se foi gerado um falso positivo nessa denúncia, acredito que o modelo será re-treinado com novas entradas de treinamento, certo?
Novamente, só porque sou alemão, de cabelo loiro e olhos verdes, isso não significa que não existe racismo nas abordagens. No entanto, precisamos reconhecer quando uma abordagem é padrão, sem agressão nem violência.
Inteligência artificial é racista KKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKK
Complicado 😢😂😅😅😅
PRA SE VER O NÍVEL DE LOUCURA DE UMA PESSOA
Eu sou tecnico de I.T, a inteligencia artificial é treinada com dados e quando é exposta a dados, por exemplo, que circulam na internet da realidade.
Ele aprende com o que lhe é mostrado. Deste modo, como vivemos em uma sociedade racista, é normal esse comportamento ser replicado pela maquina.
Isto não é da cabeça da servidora pública exitem milhões de estudos que mostram isto e também processos ganhos na justiça.
@@wellingtonluiz1991 Eu sou tecnico de I.T, a inteligencia artificial é treinada com dados e quando é exposta a dados, por exemplo, que circulam na internet da realidade.
Ele aprende com o que lhe é mostrado. Deste modo, como vivemos em uma sociedade racista, é normal esse comportamento ser replicado pela maquina.
Isto não é da cabeça da servidora pública exitem milhões de estudos que mostram isto e também processos ganhos na justiça.
Inteligenciacomadanda. Por. Homens
Pra variar a IA também é racista...
É muito mimimi, se o sistema indica que é parecido, os policiais fizeram o certo, tem que averiguar, errado seria se já prendessem a moça, o que devemos cobrar é um sistema mais preciso e que consiga distinguir melhor pessoas pretas e pardas, pois isso é uma falha de várias IAs, elas não conseguem trabalhar bem com pele preta e muitos desses casos é por culpa das pessoas que treinam essas ias
Se ninguém filma seria pior
Esperem só até a ia ter robos policiais nas ruas para vcs acusarem ela kkkk
Negocio vai ser tipo filme até imagino
Reconhecimento racial né, só reconhece negro!