Servidora pública é confundida com foragida da justiça por sistema de reconhecimento facial da PM RJ

Поделиться
HTML-код
  • Опубликовано: 12 сен 2024
  • Uma servidora pública registrou queixa na Polícia Civil após ser confundida com uma foragida da Justiça pelo sistema de reconhecimento facial no centro do Rio de Janeiro, durante um evento de igualdade racial. Ao UOL, Daiane de Souza Mello, 35, disse acreditar ter sido vítima de racismo.

Комментарии • 414

  • @ayricarlos
    @ayricarlos 2 месяца назад +142

    Aí tinha muitas testemunhas, daí não dava para fazer nada!!!
    Agora, imagine se fosse um negro, pobre, voltando do trabalho às 23:00, andando sozinho com uma mochilinha nas costas???

    • @Chat0pakas-h2f
      @Chat0pakas-h2f 2 месяца назад +19

      Ia apanhar até “confessar” que era ele

    • @milanimilani
      @milanimilani 2 месяца назад +17

      Exato. Por um reconhecimento facial completamente fajuto a polícia pode se sentir legitimada a bater primeiro e perguntar depois se for:
      - em área pobre
      - com suspeito negro
      - os dois
      Já já o cara tá lá gritando "tá bom, tá bom, eu sou o coelho".

    • @paulogobbi1574
      @paulogobbi1574 2 месяца назад +8

      O que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
      ruclips.net/video/jZl55PsfZJQ/видео.html

    • @marinaalves9606
      @marinaalves9606 2 месяца назад +10

      Esse não precisa de reconhecimento de máquina, a polícia já vê ele como bandido.

    • @Rbd71412
      @Rbd71412 2 месяца назад +2

      Aí já era . Pá pá 😢

  • @robsonserradilha7674
    @robsonserradilha7674 2 месяца назад +55

    Que estranho que 90% das vezes sempre é com o negro....

    • @ALEXANDROJAFS
      @ALEXANDROJAFS 2 месяца назад +2

      Só caso "isolado"

    • @lucianooliver9729
      @lucianooliver9729 2 месяца назад +1

      90% da população brasileira, é feita de loiros de olhos azuis?
      Acho que não...
      A maioria da população brasileira é formada por negros e pardos...
      Pessoas brancas também são presas o tempo todo.
      O procedimento do policial está certo, agiu correto, respeitosamente e tranquilo.

    • @Donarfloydr
      @Donarfloydr 2 месяца назад

      Os algoritmos foram pouco trabalhados para reconhecimento de rostos de pessoas afro.

    • @Alex.878
      @Alex.878 2 месяца назад +1

      @@Donarfloydr Seria algo compreensível caso o pais não fosse a maioria pessoas negras.
      Isto é algo que todos têm conhecimento visto que existem processos em outros países.
      O que só me faz pensar que é algo intencional.

    • @Donarfloydr
      @Donarfloydr 2 месяца назад

      @@Alex.878 é porque só importaram o sistema sem nenhum tipo de adaptação.

  • @evanioben6061
    @evanioben6061 2 месяца назад +23

    E se fosse uma pessoa sem esclarecimento e desempregada, ou em situação de rua?

  • @VanGlorY
    @VanGlorY 2 месяца назад +111

    Se tivesse um porsche eles teriam certeza que foi engano da inteligência artificial.

    • @user-ye4fp5mh4b
      @user-ye4fp5mh4b 2 месяца назад +1

      começou o vitimismo

    • @666weslei
      @666weslei 2 месяца назад

      ​@@user-ye4fp5mh4b Já viu rico passar por isso?

    • @grauabsoluto1110
      @grauabsoluto1110 2 месяца назад +3

      Verdade!

    • @nathantrigueiro2524
      @nathantrigueiro2524 2 месяца назад +23

      @@user-ye4fp5mh4b Falar a verdade agora é vitimismo?

    • @MarceloRua
      @MarceloRua 2 месяца назад

      ​@@user-ye4fp5mh4b Você trabalha naquela instituição em que seus agentes fardados matam só preto e pobre na favela e diz que "diretos humanos é para humanos direitos" e cujo conceito de humanidade essas pessoas não se encaixam para sua instituição?

  • @diegodesouza5260
    @diegodesouza5260 2 месяца назад +77

    Esse reconhecimento facial está dando muito problema, tem pessoas processando o estado e policiais devido serem confundidos com bandidos.

    • @nubiasilva2072
      @nubiasilva2072 2 месяца назад

      Eis aí porque o Brasil necessita de banco de Dna e nem só o Brasil isso deve ser mundial, mas a quem interessa e um banco de sem para casos de estupros e além de descobrir se as menorzinhas engravidaram dos droguinhas ou dos papaizinhos, irmãozinhos, dos professorzinho, e ai em diante.
      Mas o pior foi a lacração com o erro da máquina, mas quando disseram que o PM é negro sofreu racismo mandando troca-lo de emprego. Aonde mora o erro?

    • @paulogobbi1574
      @paulogobbi1574 2 месяца назад +9

      O que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
      ruclips.net/video/jZl55PsfZJQ/видео.html

    • @bruno_coelho35
      @bruno_coelho35 2 месяца назад +1

      Vamos retirar as câmeras então né?

    • @ericklima9253
      @ericklima9253 2 месяца назад +5

      @@bruno_coelho35 A crítica é exclusivamente direcionada ao sistema de reconhecimento facial e você vem falar de câmeras. Baita interpretação, viu? Parabéns!

    • @bruno_coelho35
      @bruno_coelho35 2 месяца назад

      @@ericklima9253 Sim. Devemos retirar as câmeras, é melhor. Atualizar o software de reconhecimento será muito trabalhoso.

  • @carlmoreira3683
    @carlmoreira3683 2 месяца назад +30

    Mais um" reconhecimento facial" que falha.

  • @mariamercialins578
    @mariamercialins578 2 месяца назад +61

    Por que esses fatos lamentáveis só contra negros?

    • @B2KTRR902
      @B2KTRR902 2 месяца назад

      Vai lá na região Norte principalmente a amazônica e veja se isso só acontece com Negro, tem que ser muito troux4 ou uma put4 ocidental pra achar que no Brasil isso só acontece com Negro.

    • @Betamaniacodopreyeyestotalm
      @Betamaniacodopreyeyestotalm 2 месяца назад

      Por que a maioria que comete crimes são negros?

    • @Betamaniacodopreyeyestotalm
      @Betamaniacodopreyeyestotalm 2 месяца назад

      hoje em dia tudo tem que se comparar o que um negro e um branco faz no fim somos todos iguais infelizmente devido ao governo causar transtornos acabam os pobres não só negros como pardos brancos também acabam sofrendo com isso.

    • @paulogobbi1574
      @paulogobbi1574 2 месяца назад +2

      O que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
      ruclips.net/video/jZl55PsfZJQ/видео.html

    • @vagnerconceicao7778
      @vagnerconceicao7778 2 месяца назад +2

      Porque uma outra mulher negra cometeu um crime!

  • @phenbuz
    @phenbuz 2 месяца назад +10

    ESTÁ TUDO ERRADO. Esse tipo de confusão NÃO PODE ACONTECER. Numa outra situação o sujeito será INTERPRETADO como suspeito e pode acabar tomando TIROS antes dessa checagem ser concluída. Porque É ASSIM que ocorre nas periferias do Brasil. Muito preocupante.

  • @leonard2198
    @leonard2198 2 месяца назад +15

    só isso? e o constrangimento ?

    • @paulogobbi1574
      @paulogobbi1574 2 месяца назад +1

      O que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
      ruclips.net/video/jZl55PsfZJQ/видео.html

    • @edsonmatos7060
      @edsonmatos7060 2 месяца назад +2

      Ela podia cobrar o estado pelo constrangimento. Um bom advogado.

  • @carlmoreira3683
    @carlmoreira3683 2 месяца назад +27

    E eles acreditam de pés juntos no tal do reconhecimento facial😮

  • @LiberatoMedeiros
    @LiberatoMedeiros 2 месяца назад +11

    Caramba, gravíssimo essa situação nesse app

  • @Alex.878
    @Alex.878 2 месяца назад +34

    Eu sou tecnico de I.T, a inteligencia artificial é treinada com dados e quando é exposta a dados, por exemplo, que circulam na internet, a realidade tem impacto.
    Ele aprende com o que lhe é mostrado. Deste modo, como vivemos em uma sociedade racista, é normal esse comportamento ser replicado pela maquina.
    Isto não é da cabeça da servidora pública exitem milhões de estudos que mostram isto e também processos ganhos na justiça.
    A negligencia no treinamento da A.I na identificação de rostos com fenotipos africanos é também uma caracterísca que contribuição para o racismo.

    • @NormanBates99
      @NormanBates99 2 месяца назад

      Concordo plenamente. A inteligência artificial está sujeita ao racismo estrutural.

    • @sirmild938
      @sirmild938 2 месяца назад +3

      Concordo com você, mas, mesmo assim, sou programador de TI. Um estudo mostra que a IA pode seguir os vieses da sociedade, mas precisamos considerar qual modelo estamos falando. Às vezes, esse modelo é diferente e pode estar errando também. Outro ponto é que, se só foram averiguar e não tentaram prender a pessoa nem nada, está ok. Isso apenas se torna mais um dado para a correção e treinamento do modelo, certo?

    • @aceperee
      @aceperee 2 месяца назад +8

      ​@@sirmild938errado, e se um cidadão confundido se assusta e corre, ou vai pegar um documento na bolsa, pegar um celular pra filmar a abordagem e os policiais enchem ele de azeitona, como que fica o desenrolar da história? Se não é 100% ou pelo menos 99,9 não implante essa porcaria de tecnologia...

    • @720danielsilva
      @720danielsilva 2 месяца назад

      Up

    • @celsocunhadeoliveira2973
      @celsocunhadeoliveira2973 2 месяца назад

      ​@@acepereefica azeitonado.

  • @robertoalbuquerque
    @robertoalbuquerque 2 месяца назад +23

    No Alphaville eles não têm esse ímpeto

    • @Betamaniacodopreyeyestotalm
      @Betamaniacodopreyeyestotalm 2 месяца назад

      bla bla alphaville o de sempre ja deu a cota de fala disso fala de outro assunto pq vc n fala do criminoso que matou o pm seu merda.

  • @mauriciobr4776
    @mauriciobr4776 2 месяца назад +12

    Vai ter gente inocente sendo morta!

  • @cosmeaquino1811
    @cosmeaquino1811 2 месяца назад +7

    A Programação da máquina é para considerar suspeito todo indivíduo de pele Negra , quem programou quem deu a ordem da programação, para estabelecer esse viés racistas, onde duas pessoas completamente diferente são considerada suspeita e exibe uma foto totalmente diferente da fisinomia da pessoa , a unica coisa comum entre elas é a negritude, ou a pele Negra.

  • @rafaelcunha6874
    @rafaelcunha6874 2 месяца назад +41

    Se fosse branca, os policiais teriam pedido desculpas de joelhos e levariam a moça até a casa dela.

    • @thiagoaraujo8414
      @thiagoaraujo8414 2 месяца назад +1

      Para de fogo. Eu entendo que negros lutam por seus direitos, mas vcs inventam tantas desculpas. Se fazem de vítima

    • @AnaMaria-g6s
      @AnaMaria-g6s 2 месяца назад +8

      ​@@thiagoaraujo8414inventam desculpas? Se fazem de vítimas? Vc é só mais um negacionista. Enquanto não é no seu cool, é só mimimi, não é mesmo?

    • @RR-ds4sd
      @RR-ds4sd 2 месяца назад

      A criminosa é negra e bem parecida com a servidora. Até o líder social alí teve que chamar à razão o pessoal.

    • @milanimilani
      @milanimilani 2 месяца назад +6

      @@thiagoaraujo8414 oh, mais um branco privilegiado. Surpresa zero.
      Confortável sair de casa sem ter medo de ser abordado pela polícia, né?

    • @paulogobbi1574
      @paulogobbi1574 2 месяца назад +1

      O que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
      ruclips.net/video/jZl55PsfZJQ/видео.html

  • @RodrigoTavaresGuitarrista
    @RodrigoTavaresGuitarrista 2 месяца назад +8

    O sistema de reconhecimento facial é extremamente falho e uma tecnologia que ainda precisa de muita melhora, muita modificação.
    Tem que divulgar sim não tem que esconder nada o servidor público em serviço tem sua imagem atrelada ao serviço que presta se não quer aparecer tem que fazer serviço interno!

  • @jessieranzz6699
    @jessieranzz6699 2 месяца назад +3

    Eu escrevi meu TCC sobre isso e ninguem nem pra me dá um prêmio

    • @botafogo55
      @botafogo55 2 месяца назад +1

      Tcc não é ora prêmio não, só se for em formato de artigo científico. Aí mesmo assim pode oi não ser publicado. Imagnie ganhar prêmio.

    • @jessieranzz6699
      @jessieranzz6699 2 месяца назад +1

      @@botafogo55 foi só um modo de dizer, claro que eu sei que TCC não dá prêmio. E mesmo assim na minha faculdade os que tiveram nota acima de 9 seriam cotados pra tipo uma publicação, eu tirei 9, mas, aparentemente não se importaram tanto com o meu tema que foi exatamente esse do vídeo.

    • @botafogo55
      @botafogo55 2 месяца назад

      @@jessieranzz6699 eu faço pós e ninguém lá liga pra graduados. Gostam de pós-graduação pra cima.

  • @denymartinspereira9566
    @denymartinspereira9566 2 месяца назад +2

    Eu metia um processo por essa situação vexatória! Palhaçada!

  • @dagostino5213
    @dagostino5213 2 месяца назад +4

    Tinha que ser no Rio de Nojeira mesmo.

  • @Lucasrodrigues-qj3mx
    @Lucasrodrigues-qj3mx 2 месяца назад +4

    E tem gente que ainda fala que quem não deve não teme, nesse caso ainda deu certo mas tem muitos outros que não, no Brasil só o que tem é pessoas sendo injustiçadas, enquanto quem precisava ser preso está solto.

  • @aleistersenna
    @aleistersenna 2 месяца назад +11

    Tecnologia do mal.

  • @xDealermax
    @xDealermax 2 месяца назад +4

    Essa IA pode ter sido treinada em uma população branca ou em outra população com características próprias, não vai ser boa o suficiente para reconhecer outras etnias nunca. Falha grave da polícia colocar isso nas ruas, IA's na segurança pública precisam ter uma qualidade absurda para serem usadas. Poderia ter acontecido uma tragédia.

  • @wesleylimadasilva2220
    @wesleylimadasilva2220 2 месяца назад +2

    Incrível como esses casos vem mais do estado do Rio de janeiro e São Paulo

    • @PUMAPC1
      @PUMAPC1 2 месяца назад

      São Paulo e Rio de Janeiro tem a maior população criminosa e carcerária do Brasil. 40% de todas as ocorrências criminosas que ocorrem no país estão divididas entre RJ e SP.

  • @maxwill10
    @maxwill10 2 месяца назад +2

    O sistema acusou e o PM foi lá checar, houve truculência, desespeitou ? Não? Então segue o baile.

  • @TheRafaelluizd
    @TheRafaelluizd 2 месяца назад

    Parabéns ao policial miliatar pela abordagem e postura. Em momento algum se eximiu das explicações. Parabéns também ao senhorzinho que entendeu a situação e ajudou na explicação aos demais, o que poderia desenvolver num conflito maior.

  • @marco_hipolito
    @marco_hipolito 2 месяца назад +11

    Até a Inteligência Artificial é racista! PQP 🤣🤣🤣

    • @kadumonte1ro
      @kadumonte1ro 2 месяца назад +1

      infelizmente o pessoal tá usando tudo como racismo, caiu uma folha no chão, poxa foi racismo pq eu estava passando, hj em dia tá foda

    • @marco_hipolito
      @marco_hipolito 2 месяца назад +1

      @papa_defunto_do_bairro então quando a gente faz um RG eles tiram nossa foto né? O Banco de Dados deveria ser completo. Afinal, não existe RG, CNH sem foto.

    • @marco_hipolito
      @marco_hipolito 2 месяца назад

      @@kadumonte1ro Exatamente. As pessoas andam muito sensíveis.

    • @leozinnslima4775
      @leozinnslima4775 2 месяца назад

      ​@papa_defunto_do_bairro sou de T.I aqui na minha cidade e todo lugar que eu já vi o sistema do banco de dados fica com a inteligencia da policia, essa IA provavelmente tem acesso a muitos mas muitoosss RG,CNH com fotos, isso que aconteceu não tem literalmente nada a ver com racismo, é um bando de retardado que ta falando isso, já vi até cara de T.I falando essa merda, nunca deve ter trabalhado na vida com IA, nesse caso ou foi realmente um erro pelo motivo da IA ainda estar aprendendo, isso acontece com humanos a maquina tbm erra é simples, ou realmente faltava informações para ela, como exemplo possivelmente no local avia poucas fotos negras para a IA estudar, e isso pode vir do fato de 10,2% apenas da população ser negra, a maior parte é parda e branca, isso pode complicar bastante a IA de compreender, mas com o tempo esses erros se deus quiser vão acabar, pois não queremos ver inocentes na cadeia

    • @user-fp8hi6cq6i
      @user-fp8hi6cq6i Месяц назад

      @@marco_hipolito Como alguém que estuda sobre o assunto, digo que isso é totalmente possível. Dependendo de como ela foi treinada, ela pode chegar em conclusões preconceituosas. Entretanto, o problema também pode vir de como os dados estão sendo tratados: coisas como cenário e roupas podem atrapalhar o treinamento do modelo. Como não sabemos que dados foram usados para treino e como foram usados, é difícil chegar a uma conclusão, porém a hipótese da moça é totalmente válida

  • @fafarabodegatoartesanato4621
    @fafarabodegatoartesanato4621 2 месяца назад +9

    Na.minha.Opiniáo.Essas.modernidade.so.veio.pra.arasar.a.vida.da.gente..no.mercado.o.moço.que.entende....perdeu.o.dinheiro.dele.fazendo.Pix.imagina.quem.náo.entende.To.Lascada.Valeime.Deus

    • @josemeirerodrigues3554
      @josemeirerodrigues3554 2 месяца назад +1

      Me esclarece uma dúvida: pq tantos pontos finais num único parágrafo? Não estou zombando. É que vejo muitas pessoas escrevendo assim.

    • @campusxd9131
      @campusxd9131 2 месяца назад

      ​@@josemeirerodrigues3554deve ser corretor do celular, algo assim

  • @Resiliencia_Cris
    @Resiliencia_Cris 2 месяца назад +9

    Simples, processa o estado e a PM do RJ por toda situação constrangedora.
    Mesmo com toda tentativa de "explicação" do policial, ele poderia ter evitado o constrangimento a uma pessoa que nada tem a ver com a procurada pela justiça.

  • @filipevieira7033
    @filipevieira7033 2 месяца назад +21

    Impressionante como a policia do Rio quer prender todo negro na rua!.

    • @biasoares1523
      @biasoares1523 2 месяца назад +7

      ​@BrunaLopes2s2claro que tem problema pq não acontece com branco

    • @biasoares1523
      @biasoares1523 2 месяца назад +4

      ​@BrunaLopes2s2 podia acontecer mais vezes com branco né

    • @felyppebitar2177
      @felyppebitar2177 2 месяца назад +4

      ​@BrunaLopes2s2t tem problema pq a pessoa é inocente até que se prove o contrário e nem todo negro é bandido

    • @Eduu2009l
      @Eduu2009l 2 месяца назад

      ​@@biasoares1523 acontece na mesma proporção com brancos.

    • @Resiliencia_Cris
      @Resiliencia_Cris 2 месяца назад +1

      @BrunaLopes2s2 Ei
      vc quer mesmo tocar isso em frente?
      Vamos ver se tem essa coragem.

  • @Rafaelkonan007
    @Rafaelkonan007 2 месяца назад +7

    Bom Jesus da Lapa -Bahia) aqui nossa cidade tem esta câmera reconhecimento facial do estado .são mais de 70 cidades na BAHIA com esta câmeras etc. Tem qualificar os agentes para abordagem com respeito diálogo sempre. Que DEUS conforte esta moça do bem. 👊👊👊🙏🙏🙏🌵🏜🇧🇷🌎2024 BAHIA .

    • @paulogobbi1574
      @paulogobbi1574 2 месяца назад +2

      O que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
      ruclips.net/video/jZl55PsfZJQ/видео.html

  • @jacksoncostamanha2871
    @jacksoncostamanha2871 2 месяца назад +3

    Eu sou branco e já aconteceu comigo na entrada do estádio. Checaram, viram que realmente houve um engano, me fotografaram e fotografaram meu documento afim de justificar que realmente houve um equívoco e segui minha vida tranquilamente. Esse tipo de situação não deveria acontecer, mas se aconteceu segue o baile gente.

    • @_ZEROHz
      @_ZEROHz 2 месяца назад

      Perfeito e exatamente isso que pensei essa merda deve dar errar bastante uma tecnologia que esta longe de um taxa de acerto de uns 99%

    • @obn3178
      @obn3178 2 месяца назад

      Segue o baile o caramba, processo no Estado,por isso tem tanta coisa errada nesse país,por que o povo segue o baile

  • @tonyenjapon
    @tonyenjapon 2 месяца назад +3

    *_NA CHINA, JAPÃO E CORÉIA A INTELIGÊNCIA ARTIFICIAL NEM TENTA RECONHECER 😂_*

  • @j.c.6390
    @j.c.6390 2 месяца назад +1

    Tem que ter muita cautela,existem pessoas muito parecidas ,as vezes até mais que o próprio irmão.

  • @neofitagil7052
    @neofitagil7052 2 месяца назад +1

    Preocupante!

  • @geovanekzro6989
    @geovanekzro6989 2 месяца назад +1

    Processo, dinheiro e churrasco 👍👍👍

  • @severinobernardo5988
    @severinobernardo5988 2 месяца назад +1

    Mas uma pataquada deste reconhecimento racista facial . Uma ferramenta para botar mas pobres e maus negros na cadeia , lasca um processo neles

  • @tonyenjapon
    @tonyenjapon 2 месяца назад +2

    *_NA CHINA ATÉ O POLICIAL QUE FAZ A CHECAGEM É SUSPEITO, LÁ A INTELIGÊNCIA ARTIFICIAL BUGA😂_*

    • @botafogo55
      @botafogo55 2 месяца назад +1

      São bem parecidos também.

  • @mtscury
    @mtscury 2 месяца назад +1

    Em 2024 o cara pedindo para que imagens não fossem parar na Internet kkkKKKKKKKKKKK
    😂😂😂😂😂😂😂

  • @renanl2023
    @renanl2023 2 месяца назад +1

    O que a gente ainda vai ver de merda acontecendo por conta da tal IA não vai ser brincadeira!

  • @generalbenjaminarrola340
    @generalbenjaminarrola340 2 месяца назад

    Usar um sistema assim pra prender alguém, o Brasil é uma piada mesmo 😂

  • @juliobastosjb
    @juliobastosjb 2 месяца назад +1

    Muda sistema, muda tudo, continua difícil ser negro no Brasil.

  • @megacripto7551
    @megacripto7551 2 месяца назад +1

    Ate qdo vamos aceitar isso ?!

  • @juniordrama1000
    @juniordrama1000 2 месяца назад +2

    Aqui em Sergipe deu problema duas vezes seguidas somente com pessoas negras.

  • @ZeDuBreju
    @ZeDuBreju 2 месяца назад

    Há males que vem para o bem, aqui onde moro uma mulher foi presa por se parecer com uma criminosa foragida, foi algemada e colocada no camburão, ganhou 70 mil de indenização

  • @delmatarazo
    @delmatarazo 2 месяца назад

    Esse reconhecimento facial aí ainda vai colocar muita gente inocente na cadeia isso e ridículo.
    Depois do constrangimento aí tá tudo bem vergonhoso.

  • @manoeleglivanmoraesdeazeve7391
    @manoeleglivanmoraesdeazeve7391 2 месяца назад +2

    Fui confudido com um policial em um velório, por pouco não fui pro caixão tbm😂😍

  • @brunocosta5648
    @brunocosta5648 2 месяца назад

    Deve processar todos os agentes e estados isso e vergonha

  • @shok1549
    @shok1549 2 месяца назад +1

    Joga fora essa maquina

  • @jasonrodrigues7022
    @jasonrodrigues7022 2 месяца назад

    Trabalho excelente do segurança, padrão corretíssimo.

  • @domingosCezaroliveiraNunes
    @domingosCezaroliveiraNunes 2 месяца назад

    Se a moça que foi"confundida" com foragida da justiça, fosse uma pessoa desempregada e em situação de rua, teriam levado ela presa. Não pode deixar isso barato não.

  • @renanl2023
    @renanl2023 2 месяца назад +2

    Até quanto isso? Até quando essa merda?

  • @macielreis-bf8oo
    @macielreis-bf8oo 2 месяца назад +1

    Quando é com negro já querem algemar, agora quando é com o cara da Porshe só faltam oferecer um cafezinho !!!

  • @rafaelnunes6431
    @rafaelnunes6431 2 месяца назад

    Político corrupto é confundindo com gente honesta e nunca vai preso...essa aberração é o Brasil!

  • @Leonardo-jv1ls
    @Leonardo-jv1ls 2 месяца назад +1

    Eu não faço essa porra de reconhecimento facial. Me recuso a isso.

  • @_MarianaSilva_
    @_MarianaSilva_ 2 месяца назад

    Não adianta mostrar que deu errado fora do Brasil, vão lá e implementam o negócio mesmo assim. Coitada da moça, imagina o susto!

  • @joaopaulofernandes8835
    @joaopaulofernandes8835 Месяц назад

    O policial foi super educado, explicou a situação e pediu para ver a identidade dela. O cara não tem culpa se a IA errou e ainda por cima sofreu racismo, não é por que ele negro que não pode ser policial.

  • @stangarcia
    @stangarcia 2 месяца назад +6

    Policial de bem nunca falha 😂

  • @walmerinstoncorrea7194
    @walmerinstoncorrea7194 2 месяца назад

    A I.A disse:
    Eu cherei demais e confundi as pessoas.

  • @cacasuzuki3409
    @cacasuzuki3409 2 месяца назад +1

    Chama o Jhon Textor ele é experte no assunto de IA

  • @izabelneto7753
    @izabelneto7753 2 месяца назад +2

    Como disse Carmen Lúcia...

  • @FABIO.AYUB.
    @FABIO.AYUB. 2 месяца назад

    O Brasil tem uma sorte inacreditável neste assunto, sabem porque?
    Nos anos 90 trabalhei na capital quando os bolivianos e peruanos estavam abraçando várias oportunidades de trabalho por aqui...
    Se esta identificação tivesse em vigor na época, todo mundo hoje estaria enquadrado porque segundo eles mesmos afirmam, " todos nós somos parecidos, todos nós temos as mesmas caras... "
    Entenderam isso, povo brasileiro?
    Tirem suas próprias conclusões 😂😂😂

  • @MarcosAurelio-uv3hd
    @MarcosAurelio-uv3hd 2 месяца назад

    Ainda tem gente que se contenta com esse mundo

  • @pejjota1
    @pejjota1 2 месяца назад +7

    IA falhou, polícia foi checar, constatado que não era a pessoa foragida, segue normal. Nada demais.

    • @Resiliencia_Cris
      @Resiliencia_Cris 2 месяца назад +4

      Se fosse comigo, não seguiria normal não.

    • @milanimilani
      @milanimilani 2 месяца назад +3

      Faltou o "desculpe erramos, perdoe o constrangimento".
      E sobrou arrogância do segurança quando viu que errou.
      Agora vamos imaginar a mesma situação em uma favela. Como era mesmo?
      "IA falhou, polícia foi checar..."
      Complete a história.

    • @xDealermax
      @xDealermax 2 месяца назад

      Mas muitas vezes que a policia 'checa' com bala, se é um homem preto na favela poderia estar morto com o guarda chuva na mão antes de qualquer verificação. Falha grave da polícia colocar um sistema ruim nas ruas.

    • @paulogobbi1574
      @paulogobbi1574 2 месяца назад

      O que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
      ruclips.net/video/jZl55PsfZJQ/видео.html

    • @paulogobbi1574
      @paulogobbi1574 2 месяца назад

      ​@@Resiliencia_CrisO que significa quando a tecnologia que rodeia as nossas vidas se baseia em preconceitos raciais e de género sistémicos? Esta é a verdade sobre as forças invisíveis que decidem o potencial humano diário.
      ruclips.net/video/jZl55PsfZJQ/видео.html

  • @lasgol
    @lasgol 2 месяца назад

    Situação humilhante...........
    ............
    .....

  • @ColdKiller-g5b
    @ColdKiller-g5b 2 месяца назад +1

    Rapaz é brincadeira viu a policia nao pode trabalhar nao ?? os cara fez o certo foi la conferiu e liberou normal

  • @Claudinho713
    @Claudinho713 2 месяца назад +9

    Eu sou negro mais todos nós estamos sujeitos a uma abordagem policial que seja com educação e o policial estava sim com educação e parabéns pela postura só poderia ser mais tranquilo tranquilo eu sei tem caso e acaso !!!

    • @J.C.OLIVEIRA-so2uw
      @J.C.OLIVEIRA-so2uw 2 месяца назад +4

      Acorda manezinho ! Pois não existe abordagem policial com educação.

    • @naltoncastro6026
      @naltoncastro6026 2 месяца назад +1

      ​@@J.C.OLIVEIRA-so2uwexiste, mas tem que ser branco primeiro

  • @user-cw1fu1br5z
    @user-cw1fu1br5z 2 месяца назад

    qualquer modelo de IA comete erros.A tarefa é reduzir ao máximo a quantidade até o ponto de ser aceitável.

  • @dalamico1
    @dalamico1 2 месяца назад

    Todo cidadão tem o dever de se identificar se solicitado por qualquer autoridade competente. Andem sempre com documento de identidade. Tecnologia não é infalível e qualquer pessoa que seja constrangida tem o direito de processar o Estado. Sobre racismo não vou opinar, não é meu lugar de fala.

  • @veraluciamazuco1321
    @veraluciamazuco1321 2 месяца назад +3

    Pelo visto quem coloca os dados para a IA fazer estas identificações é um bando de racistas, só acontece isso com pessoas negras. Tem que processar os envolvidos e o órgão público que utiliza estas tecnologias desta maneira.

    • @Alex.878
      @Alex.878 2 месяца назад +1

      Eu sou tecnico de I.T, a inteligencia artificial é treinada com dados e quando é exposta a dados, por exemplo, que circulam na internet da realidade.
      Ele aprende com o que lhe é mostrado. Deste modo, como vivemos em uma sociedade racista, é normal esse comportamento ser replicado pela maquina.
      Isto não é da cabeça da servidora pública exitem milhões de estudos que mostram isto e também processos ganhos na justiça.
      A negligencia no treinamento da A.I na identificação de rostos com fenotipos africanos é também uma caracterísca que contribuição para o racismo.

  • @charles38lopes98
    @charles38lopes98 2 месяца назад

    Impressionante o pessoal militando no final pqp

  • @diegocruz1136
    @diegocruz1136 2 месяца назад

    Eita indenização maravilhosa!! ❤😂

  • @FelipeMaxx999
    @FelipeMaxx999 2 месяца назад

    Se não tivesse as testemunhas ao redor dela, era bye bye tchau e bença!

  • @marcelosantanna8726
    @marcelosantanna8726 2 месяца назад

    Eu que sou preto, careca, adoro andar de chinelo, bermuda e camiseta, ja fui confundido várias vezes. Enfim tô ferrado, até explicar que sou Professor, tenho diploma A, B e C, já terei tomado muita porrada.

  • @wilsonds
    @wilsonds 2 месяца назад

    Bom, se o sistema indicou como pessoa procurada, a autoridade tem o dever de averiguar! Cabe ao policial, como todo cuidado e reserva, checar a identidade e confirmar se realmente é o caso. O problema é que agora tudo viraliza, as pessoas gostam de complicar algo teoricamente simples. Mimimi chato, a pessoa só porque é negra acha que não pode ser abordada.

  • @gustavolima4893
    @gustavolima4893 2 месяца назад

    Que dramalhão mexicano ...
    Ela ainda diz:
    -A Inteligência Artificial é racista .... kkkkkkk
    Ela não tem culpa de ser parecida com a procurada, mas não precisa fazer drama por conta da abordagem.

  • @emersonbastos7680
    @emersonbastos7680 2 месяца назад

    Todo negro vai ser Suspeito. Como sempre foi.

  • @diegomarcelo3865
    @diegomarcelo3865 2 месяца назад

    Bla bla bla... obrigação de checagem se caiu no sistema!

  • @marcelo20231
    @marcelo20231 2 месяца назад

    A onde é isso? É naquele Estado governado pelas facções?!

  • @reinaldolarissa7719
    @reinaldolarissa7719 Месяц назад

    Agora até o sistema de IA é racista AFF.

  • @ericsales2232
    @ericsales2232 2 месяца назад

    A inteligência artificial foi calovrada pela PM 😂

  • @clecio1965
    @clecio1965 2 месяца назад

    Pedir a identidade quando a imagem nem se parece? Piada né!

  • @bozovaiafundarobrasil605
    @bozovaiafundarobrasil605 2 месяца назад

    como sempre, incompetentes.

  • @Thiago_Murta
    @Thiago_Murta 2 месяца назад

    Reconhece um chinês do outro mas no caso dos negros "é tudo igual". Logaritmo racista

  • @BOLSONARONACADEIA
    @BOLSONARONACADEIA 2 месяца назад

    Atira e depois pergunta.Essa I.A é a imagem e semelhança da polícia racista do Brasil.E esse papo de que negro não é racista com outro negro pode ser nos EUA.Aqui no Brasil existem alguns negros tão racistas quanto brancos.

  • @Danielbx4265
    @Danielbx4265 2 месяца назад +2

    A "inteligência artitificial racista", não se aplica ao modelo de reconhecimento facial do caso, não tem nenhuma base científica nessa afirmação. O que ocorre é algorítimo mal treinado ou câmeras ruins. Algorítimos matemáticos fazem apenas aquilo que são programados para fazer. A menos que fossem generativos (modelos usados em geração de imagem e chat). Parabéns ao policial, explicou o procedimento, verificou, e concluiu o fato. E ao Luís Eduardo, como foi chamado, por entender e explicar o caso.

    • @bigerdino
      @bigerdino 2 месяца назад +1

      Essas IAs, por terem sido desenvolvidas principalmente nos EUA, foram treinadas mais pra identificar rostos e traços de pessoas caucasianas, se botar pra reconhecer um indiano, por exemplo, ela não terá base suficiente.

    • @Alex.878
      @Alex.878 2 месяца назад

      Eu sou tecnico de I.T, a inteligencia artificial é treinada com dados e quando é exposta a dados, por exemplo, que circulam na internet da realidade.
      Ele aprende com o que lhe é mostrado. Deste modo, como vivemos em uma sociedade racista, é normal esse comportamento ser replicado pela maquina.
      Isto não é da cabeça da servidora pública exitem milhões de estudos que mostram isto e também processos ganhos na justiça.
      A negligencia no treinamento da A.I na identificação de rostos com fenotipos africanos é também uma caracterísca que contribuição para o racismo.

    • @milanimilani
      @milanimilani 2 месяца назад

      Verdade que o policial podia ter pedido desculpas pelo constrangimento causado, não acha?
      Nãooooo pra que.
      Agora vamos imaginar a mesma situação numa favela com maioria da população negra. IA falha, reconhece pessoa errada. O que acontece?

    • @Danielbx4265
      @Danielbx4265 2 месяца назад

      @@Alex.878 Então não é racismo, até porque esses modelos não possuem consciência / senciência. O racismo se baseia na superioridade de raças ou etinias. Como eu disse o modelo pode estar mal treinado ou estar usando uma lente/camêra ruim, que combinado com uma tentativa de reconheciemento em uma cena mostrando apenas metade do rosto, cuminou em erro. E deve ser corrígida. Pelo que li, o programa já é usado no país desde 2018, e tem origem russa. Mas não se pode generalizar de que todas as IAs são racistas. Isso é um caminho para pessoas não técnicas correrem para aprovar leis sobre o setor.

    • @Alex.878
      @Alex.878 2 месяца назад

      @@Danielbx4265 Eu técnico de I.T programo em C++ e Java.
      Estás totalmente errado no que dizes.
      Em programação temos por exemplo conditional structure, nada mais é que uma tomada de decisão de acordo com o dado que se recebe.
      O algoritmo por si só é a descriminação de dados.
      Sim, o algoritmo tem a personalidade do programador porque é a sua forma de pensar.
      Eu posso criar um programa de identificação facial que tenha maior ou menor tolerância à diferença geometria faciais caso o tom de pele seja mais escuro.
      O racismo em algoritmo e inteligência artificial é um problema que não é de hoje.
      Estes especialistas de internet são uma piada.

  • @Mike.F.No9925
    @Mike.F.No9925 2 месяца назад

    Emocionados, máquinas não são racistas, elas não podem ser racistas, elas não têm personalidade para serem racistas, isso é tudo balela, sem fundamento jurídico.
    Se houve erro, o procedimento correto é pedir a documentação da suspeita, averiguar no sistema e, caso conste o erro, encerrar a abordagem. É simples, é prático, é objetivo. Não tem "A", não tem "B".
    Quem praticou um fato preconceituoso foi a mulher que disse que o policial negro não deveria estar polícia só porque é negro, sob pena de ser "ignorante". Isso é segregacionismo, ela quer dizer onde os negros devem estar? Ela é a voz da razão e quem a contrapõe é "ignorante"? Ela quer ditar como ele deve conduzir seu livre-arbítrio com base no que ela pensa ser o correto?
    Vocês, que dizem lutar contra o preconceito, conseguem ser piores do que quem dizem combater.

  • @luizsilva7574
    @luizsilva7574 2 месяца назад

    A IA só reconhece negro como suspeito?

  • @gutozardy5568
    @gutozardy5568 2 месяца назад

    Eu tô vendo coisa ou esse sargento parece estar embriagado?

  • @milanimilani
    @milanimilani 2 месяца назад +1

    Tá beleza, o segurança lá estava apenas fazendo seu trabalho.
    Mas dói assim no fundo do rabo extrair um "me desculpe, foi um erro nosso, perdão pelo incômodo que causamos"??????
    Porque pô, vamos reconhecer que esse erro de procedimento gerou um constrangimento? E aqui foi sem violência. Na favela, teria sido com o mesmo cuidado?? ou a polícia ia descer a porrada primeiro e depois checar a identidade? É essa a questão!!!
    A questão não é se O SEGURANÇA foi racista e sim se o sistema que se engana ao reconhecer "suspeitos", por acaso negros, não abre a porta para que abusos sejam cometidos, por acaso contra negros, como sempre.
    Então sim, a questão do racismo se coloca.
    Com ou sem racismo, ninguém tem que ser abordado na rua porque um máquina maluca acha que uma pessoa é outra. E se houver abordagem, ela tem que ser muito, mas muuuuito cuidadosa e educada. Se ela for negra, aquele que abordou tem sim que se perguntar se a abordagem não é racista. E, em caso de erro, tem que MEGA pedir desculpas. A última cosa a fazer é manter a arrogância que visivelmente esse segurança exibiu.
    Não pediu desculpas, não desceu do pedestal, demonstrou certa irritação porque a cidadã não se deixou abusar, continuou com essa de que só está fazendo seu trabalho de segurança (que só conseguiu incomodar pessoas de bem), levantou o tom quando viu que complicou para dizer que "já está resolvido" ao invés de dar a explicação que estavam pedindo? não tenho nenhuma pena de que seja exposto e processado.

    • @Alex.878
      @Alex.878 2 месяца назад +1

      Eu sou tecnico de I.T, a inteligencia artificial é treinada com dados e quando é exposta a dados, por exemplo, que circulam na internet da realidade.
      Ele aprende com o que lhe é mostrado. Deste modo, como vivemos em uma sociedade racista, é normal esse comportamento ser replicado pela maquina.
      Isto não é da cabeça da servidora pública exitem milhões de estudos que mostram isto e também processos ganhos na justiça.
      A negligencia no treinamento da A.I na identificação de rostos com fenotipos africanos é também uma caracterísca que contribuição para o racismo.

    • @milanimilani
      @milanimilani 2 месяца назад

      @@Alex.878 Bem pontuado e nossos argumentos convergem, me parece: não é que o agente SEJA racista (não sabemos, e é irrelevante), e sim que o sistema reproduz uma estrutura racista de abordagem a pessoas na rua.
      Eu que sou branco não temo ser apontado como suspeito por uma IA de reconhecimento facial, negros sim. Mesmo assim, se isso acontecer comigo, não temo ter o mesmo tratamento que negros terão.
      E, é isso mesmo que você falou, a IA está sendo treinada por pessoas que acham negros mais suspeitos que brancos. Resultado: ela apita mais para negros do que para brancos. Lá na frente, alguém vai justificar o racismo dizendo que "a máquina é impessoal" e que a IA não tem alvo prévio. Mas, como você disse, ela tem o alvo que quem a ensinar lhe der.

    • @lialogica
      @lialogica 2 месяца назад +1

      ​​​​​@@Alex.878 reconhecimento facial não é treinado assim: olha esse é bandido e esse não kkk ela é exposta a milhares de imagens diferentes e aprende vários padrões de fenótipos diferentes e depois disso é "calibrada" por milhares de pessoas q trabalham como AI trainer, comparando as imagens e apontando se realmente se trata da mesma pessoa ou não, não tem apontamento de "criminoso e inocente", e ao contrário do q se imagina a grande maioria desses softwares não pegam simplesmente imagens aleatórias do google, eles tbm pagam pessoas para cederem essas imagens de si, até pq precisa ter um certo controle de qualidade e certeza de que se trata de pessoas reais, sem filtros e etc. Eu trabalho com isso. Os maiores problemas estão justamente nessas duas etapas: a de construção do banco de imagens e na "calibragem", são poucos dados coletados de pessoas negras e mestiças e muito "desleixo" (não consegui encontrar uma palavra melhor 😅) dos TLs e desenvolvedores brancos q são maioria. Essa deficiencia nos dados acaba gerando uma baixa eficácia no reconhecimento, tem vídeos mostrando softwares q simplesmente nao reconhecem pessoas negras como uma pessoa por exemplo, e no caso dessa moça teve uma identificação equivocada. Enfim, desculpe o textão, vc não está errado em afirmar q existe racismo no reconhecimento facial, mas isso não ocorre por puro bias e aproveitei a oportunidade para explicar melhor como funciona todo esse processo q é mto desconhecido até no nosso próprio meio da tecnologia.

    • @Alex.878
      @Alex.878 2 месяца назад

      @@lialogica Eu programo em C++, Java e frequento agora um curso de cyber security and forensics computing .
      Estás totalmente errado no que dizes.
      Eu consigo encontrar uma palavra melhor que é racismo, por este motivo um país que é mais de 50% negro não age de forma preventiva para que tecnologias que prejudicam a população negra não sejam usadas na segurança pública.
      Eu não tenho acesso ao código, mas tenho ao resultado dela que marginaliza e constrange pessoas negras.
      Em programação temos por exemplo conditional structure, nada mais é que uma tomada de decisão de acordo com o dado que se recebe.
      O algoritmo por si só é a descriminação de dados.
      Sim, o algoritmo tem a personalidade do programador porque é a sua forma de pensar.
      Eu posso criar um programa de identificação facial que tenha maior ou menor tolerância à diferença geometria faciais caso o tom de pele seja mais escuro.
      O racismo em algoritmo e inteligência artificial é um problema que não é de hoje.

  • @pontodeculturaanarquistaca1588
    @pontodeculturaanarquistaca1588 2 месяца назад

    Tem que divulgar quem é o policial

  • @sergio5021
    @sergio5021 2 месяца назад

    Não reconhece rico e branco agora negro e pobre

  • @sirmild938
    @sirmild938 2 месяца назад

    Vou ser bem sincero, sobre esses sistemas e algumas abordagens (uma boa parte delas, bem grande mesmo), sei que há preconceito. Mas, às vezes, dependendo do caso, se eles só pararam e foram conferir, está ok.
    Por que digo isso? Sou alemão, loiro e de olhos verdes. Aqui em SC, já fui parado por uma moto policial com o revólver apontado para mim. Mandaram-me levantar a camisa, eu levantei e perguntaram onde eu morava. Falei que era próximo a um lugar onde estavam procurando um assaltante, e me liberaram.
    Se for apenas essa verificação e depois der o ponto negativo, ok. Agora, se ficarem importunando a pessoa, aí acho errado. Sobre a IA ser racista, é claro que pode ser, mas não se pode generalizar porque são modelos diferentes. Só porque em uma pesquisa falaram que uma IA é racista, não significa que seja o mesmo modelo usado em outros contextos.
    (Para simplificar, vou me referir ao documento do Word como uma analogia para pessoas que não são da área de IA.) Um modelo é como um documento do Word: se um texto tem racismo, outro pode não ter. Digo isso porque, se eles estão treinando um modelo totalmente novo, o modelo antigo pode ter vieses. É necessário pesquisar sobre esse modelo específico para verificar se ele tem viés racista.
    De qualquer forma, se foi gerado um falso positivo nessa denúncia, acredito que o modelo será re-treinado com novas entradas de treinamento, certo?
    Novamente, só porque sou alemão, de cabelo loiro e olhos verdes, isso não significa que não existe racismo nas abordagens. No entanto, precisamos reconhecer quando uma abordagem é padrão, sem agressão nem violência.

  • @Eduu2009l
    @Eduu2009l 2 месяца назад +3

    Inteligência artificial é racista KKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKKK

    • @lightand4378
      @lightand4378 2 месяца назад

      Complicado 😢😂😅😅😅

    • @wellingtonluiz1991
      @wellingtonluiz1991 2 месяца назад

      PRA SE VER O NÍVEL DE LOUCURA DE UMA PESSOA

    • @Alex.878
      @Alex.878 2 месяца назад

      Eu sou tecnico de I.T, a inteligencia artificial é treinada com dados e quando é exposta a dados, por exemplo, que circulam na internet da realidade.
      Ele aprende com o que lhe é mostrado. Deste modo, como vivemos em uma sociedade racista, é normal esse comportamento ser replicado pela maquina.
      Isto não é da cabeça da servidora pública exitem milhões de estudos que mostram isto e também processos ganhos na justiça.

    • @Alex.878
      @Alex.878 2 месяца назад

      @@wellingtonluiz1991 Eu sou tecnico de I.T, a inteligencia artificial é treinada com dados e quando é exposta a dados, por exemplo, que circulam na internet da realidade.
      Ele aprende com o que lhe é mostrado. Deste modo, como vivemos em uma sociedade racista, é normal esse comportamento ser replicado pela maquina.
      Isto não é da cabeça da servidora pública exitem milhões de estudos que mostram isto e também processos ganhos na justiça.

  • @elianaeloy2747
    @elianaeloy2747 2 месяца назад

    Inteligenciacomadanda. Por. Homens

  • @lucianapinheiro
    @lucianapinheiro 2 месяца назад

    Pra variar a IA também é racista...

  • @viniciusp_diogo
    @viniciusp_diogo 2 месяца назад

    É muito mimimi, se o sistema indica que é parecido, os policiais fizeram o certo, tem que averiguar, errado seria se já prendessem a moça, o que devemos cobrar é um sistema mais preciso e que consiga distinguir melhor pessoas pretas e pardas, pois isso é uma falha de várias IAs, elas não conseguem trabalhar bem com pele preta e muitos desses casos é por culpa das pessoas que treinam essas ias

  • @SivaldoBarroSouza
    @SivaldoBarroSouza Месяц назад

    Se ninguém filma seria pior

  • @FocoMago
    @FocoMago 2 месяца назад

    Esperem só até a ia ter robos policiais nas ruas para vcs acusarem ela kkkk
    Negocio vai ser tipo filme até imagino

  • @danim.7145
    @danim.7145 2 месяца назад

    Reconhecimento racial né, só reconhece negro!