O viés humano e a ética por trás da Inteligência Artificial | ANA CRISTINA | TEDxNiteroi
HTML-код
- Опубликовано: 3 окт 2024
- Professora Titular do Departamento de Informática Aplicada da Universidade Federal do Estado do Rio de Janeiro (UNIRIO), Ana Cristina Bicharra é doutora em Engenharia, Stanford University (Ph.D. 1992), especializada em Inteligência Artificial, mestre em Engenharia, Stanford University (M.Sc. 1988), engenheira pela Universidade Federal do Rio de Janeiro (UFRJ-1983). Na UFF, criou em 1996 e coordenou de 1996 a 2017 o ADDLabs, laboratório de Inteligência Artificial, onde desenvolveu mais de 20 projetos de P&D, que em sua maioria estão implantados e em uso, comprovando o valor agregado de se usar inteligência artificial para auxiliar a solucionar problemas complexos. Possui formação sólida em inteligência artificial, inteligência coletiva e interação homem- computador desenvolvendo pesquisa aplicada de caracter multidisciplinar. É profundamente comprometida a fazer pesquisas que tragam impactos diretos na resolução de problemas complexos reais. . This talk was given at a TEDx event using the TED conference format but independently organized by a local community. Learn more at www.ted.com/tedx
Maravilhosa prof. Ana Cristina Bicharra. Didática e cirúrgica sobre o assunto!
Nossa que oratória, didática... sem palavras com que Ana Cristina abordou .... grata .
Me ajude
Se possível uma redação com início desenvolvimento e conclusão sobre o assunto
Importantíssimo, ser utilizado o princípio da transparência diante de vieses preconceituosos. Muito bem Ana Cristina.
Reflexão muito interessante. Parabéns ANA CRISTINA e equipe TEDx por disponibilizar um tema tão importante para livre acesso.
Ótimas reflexões sobre os cuidados que precisamos ter ao usar a IA ao nosso favor. Pode nos ajudar muito, mas não podemos esquecer que nenhuma base de dados é sem viés, conforme foi exposto no vídeo. Gostei dos exemplos, ficou bem claro como podemos ser "enganados" pelo algoritmo, aparentemente sem nenhum viés. A solução pra isso creio que é justamente o que foi dado no exemplo do seguro de saúde: após os resultados que foram gerados, é preciso verificar se eles estão conforme o esperado e investigar possíveis falhas causadas pelos nossos próprios comportamentos utilizados na base de dados para treinar a máquina.
Excelente ponto de vista. Exemplos realmente preocupantes, mesmo os hipotéticos. Grato por despertar essa importante reflexão.
Que maravilha assistir à palestra da professora Ana Cristina!
Minha orientadora, orgulho, muito boa a aula.
Que perfeita!!
Obrigado pela contribuição 💜💜💜
Muito didática, parabéns professora!
nossa, Incrivel esse comartilhamento de conhecimento.
Muito bom Cristina!!!
Parabens Professora !!!
Maravilhosaaa demais 💜
Muito boa aula, parabéns, querida!
Excelente !
Essa minority report é super interessante, mas o sistema não deve tentar evitar o crime e sim encontrar os criminosos que já cometeram crimes e observar o futuro de suas condutas evitando q se reitere, no mínimo por 5 anos.
Era dessa lecture que eu tava precisando!!!
excelente fala parabéns !
Excelente didática!
Top! Parabéns!
Muito.inteligente essa palestra
Ainda bem que não é artificial
Top
Minority Report: A Nova Lei... tá virando exatamente ele kkk
Bacana!! 👏🏾👏🏾
MINORITY REPORT
Eu aqui estudando pra redação de concurso. Quem mais?
Desculpa a minha ignorância, não tenho faculdade mas gostaria de fazer um comentário .
Como pode uma máquina avaliar o comportamento humano , nós somos imprevisíveis e as máquinas são extremamente previsíveis. Acho q ou não se existe esse tipo de máquina ou se aceita q ela vai julgar por uma estatística , para isso q existe um humano depois para poder dar o aval do que sera feito.
Peço novamente desculpa mas essa é a minha opinião , como a Sra tem a sua .
Isso, o importante é ter um ser humano que vai avaliar e aceitar ou não o resultado
Verdade somos imprevisíveis, mas acima de tudo seguimos padrões, dormimos, acordamos, comemos e interagimos com o mundo de forma única, mas se observar bem, fazemos isso dentro de um padrão que embora nosso, ainda sim é um.padrao e por isso, atitudes muito fora desse padrão seriam possíveis de identificar, por exemplo um professor sabe qual aluno se esforça e faz tarefas e qual não, qual cola na prova e qual não. Mesmo sendo diferentes, se observar, todos agimos sobre um forte padrão.
A verdade é que não vamos ter mais empregos. Vai ser uma grande massa de pessoas inutilizados.
A palestra é sem dúvida muito boa e a palestrante totalmente capacitada, porém no 3 exemplo de viés me preocupa muito e me parece que se quer que exista um viés racial onde o resultado mostra claramente que é social, pois os excluídos não foram as pessoas por sua raça e sim por seu poder aquisitivo, ou seja, por ser mais pobres. Resisto em acreditar que "pessoas brancas" iriam querer/poder dia de serviço.
O viés está nos dados como foi dito, mas principalmente em nossa capacidade de avaliar os resultados.
Ted de IA ou de femimi? Faltou falar que a IA de assessoramento jurídico indica o dobro das penas para homens do que para as mulheres pelos mesmos crimes
Só hipótese
Soluções nada de concreto
Não aprendi nada
Parece que a pessoa se preocupou mais em ficar algumas horas se embelezando pra ficar desfilando num palco vazio
Foi o que ela transmitiu
Vazio nada
Ética não é sobre dar soluções, é para problematizar e pensarmos no problema. A solução virá com o tempo e se não tiver solução, não vai usar.
Essa história está mal contada. Estou percebendo um exagero nesse sistema de segurança. Não acredito que seja assim. A polícia é sempre a vilã, é sempre a opressora.. Isso sim me parece um viés humano. E quem é que vai identificar e controlar o viés da comunidade acadêmica ? Ou não existe nenhum viés na comunidade acadêmica ? Se não existe viés na comunidade acadêmica e nem pensamento hegemônico, então está tudo certo.
Estude e entre na academia, tente mudar o suposto viés com base em ciência e não em achismo e moralismo.
A gente realmente ouve o que quer, o que o nosso viés nos leva a pensar. Não acho que a intenção dela era apontar a opressão da polícia, pelo contrário, a polícia foi induzida ao erro por conta da máquina, creio que esse foi o ponto que ela quis passar.