Ótimas reflexões sobre os cuidados que precisamos ter ao usar a IA ao nosso favor. Pode nos ajudar muito, mas não podemos esquecer que nenhuma base de dados é sem viés, conforme foi exposto no vídeo. Gostei dos exemplos, ficou bem claro como podemos ser "enganados" pelo algoritmo, aparentemente sem nenhum viés. A solução pra isso creio que é justamente o que foi dado no exemplo do seguro de saúde: após os resultados que foram gerados, é preciso verificar se eles estão conforme o esperado e investigar possíveis falhas causadas pelos nossos próprios comportamentos utilizados na base de dados para treinar a máquina.
Essa minority report é super interessante, mas o sistema não deve tentar evitar o crime e sim encontrar os criminosos que já cometeram crimes e observar o futuro de suas condutas evitando q se reitere, no mínimo por 5 anos.
Desculpa a minha ignorância, não tenho faculdade mas gostaria de fazer um comentário . Como pode uma máquina avaliar o comportamento humano , nós somos imprevisíveis e as máquinas são extremamente previsíveis. Acho q ou não se existe esse tipo de máquina ou se aceita q ela vai julgar por uma estatística , para isso q existe um humano depois para poder dar o aval do que sera feito. Peço novamente desculpa mas essa é a minha opinião , como a Sra tem a sua .
Verdade somos imprevisíveis, mas acima de tudo seguimos padrões, dormimos, acordamos, comemos e interagimos com o mundo de forma única, mas se observar bem, fazemos isso dentro de um padrão que embora nosso, ainda sim é um.padrao e por isso, atitudes muito fora desse padrão seriam possíveis de identificar, por exemplo um professor sabe qual aluno se esforça e faz tarefas e qual não, qual cola na prova e qual não. Mesmo sendo diferentes, se observar, todos agimos sobre um forte padrão.
A palestra é sem dúvida muito boa e a palestrante totalmente capacitada, porém no 3 exemplo de viés me preocupa muito e me parece que se quer que exista um viés racial onde o resultado mostra claramente que é social, pois os excluídos não foram as pessoas por sua raça e sim por seu poder aquisitivo, ou seja, por ser mais pobres. Resisto em acreditar que "pessoas brancas" iriam querer/poder dia de serviço. O viés está nos dados como foi dito, mas principalmente em nossa capacidade de avaliar os resultados.
Ted de IA ou de femimi? Faltou falar que a IA de assessoramento jurídico indica o dobro das penas para homens do que para as mulheres pelos mesmos crimes
“Femimi”? Mais um ignorante… Mesmo que esse assessoramento jurídico ocorra, os homens continuam sendo os mais violentos e os que praticam mais crimes, principalmente contra mulheres. Além de que como você mesmo disse, é só um assessoramento, somente o juíz, humano, pode decidir as penas
Só hipótese Soluções nada de concreto Não aprendi nada Parece que a pessoa se preocupou mais em ficar algumas horas se embelezando pra ficar desfilando num palco vazio Foi o que ela transmitiu Vazio nada
Me desculpe mas você é a pessoa ignorante aqui. A Ana problematizou sobre as questões éticas da inteligência artificial perfeitamente, não houve indício algum que ela daria uma solução.
Essa história está mal contada. Estou percebendo um exagero nesse sistema de segurança. Não acredito que seja assim. A polícia é sempre a vilã, é sempre a opressora.. Isso sim me parece um viés humano. E quem é que vai identificar e controlar o viés da comunidade acadêmica ? Ou não existe nenhum viés na comunidade acadêmica ? Se não existe viés na comunidade acadêmica e nem pensamento hegemônico, então está tudo certo.
A gente realmente ouve o que quer, o que o nosso viés nos leva a pensar. Não acho que a intenção dela era apontar a opressão da polícia, pelo contrário, a polícia foi induzida ao erro por conta da máquina, creio que esse foi o ponto que ela quis passar.
Informações relevantes. Muito obrigada!
Ótimas reflexões sobre os cuidados que precisamos ter ao usar a IA ao nosso favor. Pode nos ajudar muito, mas não podemos esquecer que nenhuma base de dados é sem viés, conforme foi exposto no vídeo. Gostei dos exemplos, ficou bem claro como podemos ser "enganados" pelo algoritmo, aparentemente sem nenhum viés. A solução pra isso creio que é justamente o que foi dado no exemplo do seguro de saúde: após os resultados que foram gerados, é preciso verificar se eles estão conforme o esperado e investigar possíveis falhas causadas pelos nossos próprios comportamentos utilizados na base de dados para treinar a máquina.
Maravilhosa prof. Ana Cristina Bicharra. Didática e cirúrgica sobre o assunto!
Importantíssimo, ser utilizado o princípio da transparência diante de vieses preconceituosos. Muito bem Ana Cristina.
nossa, Incrivel esse comartilhamento de conhecimento.
Nossa que oratória, didática... sem palavras com que Ana Cristina abordou .... grata .
Me ajude
Se possível uma redação com início desenvolvimento e conclusão sobre o assunto
Excelente ponto de vista. Exemplos realmente preocupantes, mesmo os hipotéticos. Grato por despertar essa importante reflexão.
Muito bom Cristina!!!
Que maravilha assistir à palestra da professora Ana Cristina!
Maravilhosaaa demais 💜
Reflexão muito interessante. Parabéns ANA CRISTINA e equipe TEDx por disponibilizar um tema tão importante para livre acesso.
Excelente !
Top! Parabéns!
Parabens Professora !!!
excelente fala parabéns !
Excelente didática!
Muito boa aula, parabéns, querida!
Muito.inteligente essa palestra
Ainda bem que não é artificial
Era dessa lecture que eu tava precisando!!!
Muito didática, parabéns professora!
Essa minority report é super interessante, mas o sistema não deve tentar evitar o crime e sim encontrar os criminosos que já cometeram crimes e observar o futuro de suas condutas evitando q se reitere, no mínimo por 5 anos.
Minha orientadora, orgulho, muito boa a aula.
Que perfeita!!
Obrigado pela contribuição 💜💜💜
Top
Minority Report: A Nova Lei... tá virando exatamente ele kkk
Bacana!! 👏🏾👏🏾
Eu aqui estudando pra redação de concurso. Quem mais?
MINORITY REPORT
Desculpa a minha ignorância, não tenho faculdade mas gostaria de fazer um comentário .
Como pode uma máquina avaliar o comportamento humano , nós somos imprevisíveis e as máquinas são extremamente previsíveis. Acho q ou não se existe esse tipo de máquina ou se aceita q ela vai julgar por uma estatística , para isso q existe um humano depois para poder dar o aval do que sera feito.
Peço novamente desculpa mas essa é a minha opinião , como a Sra tem a sua .
Isso, o importante é ter um ser humano que vai avaliar e aceitar ou não o resultado
Verdade somos imprevisíveis, mas acima de tudo seguimos padrões, dormimos, acordamos, comemos e interagimos com o mundo de forma única, mas se observar bem, fazemos isso dentro de um padrão que embora nosso, ainda sim é um.padrao e por isso, atitudes muito fora desse padrão seriam possíveis de identificar, por exemplo um professor sabe qual aluno se esforça e faz tarefas e qual não, qual cola na prova e qual não. Mesmo sendo diferentes, se observar, todos agimos sobre um forte padrão.
A verdade é que não vamos ter mais empregos. Vai ser uma grande massa de pessoas inutilizados.
A palestra é sem dúvida muito boa e a palestrante totalmente capacitada, porém no 3 exemplo de viés me preocupa muito e me parece que se quer que exista um viés racial onde o resultado mostra claramente que é social, pois os excluídos não foram as pessoas por sua raça e sim por seu poder aquisitivo, ou seja, por ser mais pobres. Resisto em acreditar que "pessoas brancas" iriam querer/poder dia de serviço.
O viés está nos dados como foi dito, mas principalmente em nossa capacidade de avaliar os resultados.
Ted de IA ou de femimi? Faltou falar que a IA de assessoramento jurídico indica o dobro das penas para homens do que para as mulheres pelos mesmos crimes
“Femimi”? Mais um ignorante… Mesmo que esse assessoramento jurídico ocorra, os homens continuam sendo os mais violentos e os que praticam mais crimes, principalmente contra mulheres. Além de que como você mesmo disse, é só um assessoramento, somente o juíz, humano, pode decidir as penas
Só hipótese
Soluções nada de concreto
Não aprendi nada
Parece que a pessoa se preocupou mais em ficar algumas horas se embelezando pra ficar desfilando num palco vazio
Foi o que ela transmitiu
Vazio nada
Ética não é sobre dar soluções, é para problematizar e pensarmos no problema. A solução virá com o tempo e se não tiver solução, não vai usar.
Me desculpe mas você é a pessoa ignorante aqui. A Ana problematizou sobre as questões éticas da inteligência artificial perfeitamente, não houve indício algum que ela daria uma solução.
Essa história está mal contada. Estou percebendo um exagero nesse sistema de segurança. Não acredito que seja assim. A polícia é sempre a vilã, é sempre a opressora.. Isso sim me parece um viés humano. E quem é que vai identificar e controlar o viés da comunidade acadêmica ? Ou não existe nenhum viés na comunidade acadêmica ? Se não existe viés na comunidade acadêmica e nem pensamento hegemônico, então está tudo certo.
Estude e entre na academia, tente mudar o suposto viés com base em ciência e não em achismo e moralismo.
A gente realmente ouve o que quer, o que o nosso viés nos leva a pensar. Não acho que a intenção dela era apontar a opressão da polícia, pelo contrário, a polícia foi induzida ao erro por conta da máquina, creio que esse foi o ponto que ela quis passar.