CODED BIAS: NETFLIX Exibe o Documentário que Revela o Preconceito dos Algoritmos

A CONVIDADA DE HOJE DO CINEMARCO É A ADVOGADA HELOISA KORB BONDAN.

O Netflix passou a exibir em abril de 2021 o interessantíssimo documentário CODED BIAS, que revela uma realidade sensível: os algoritmos aplicados através da tecnologia de reconhecimento facial podem trazer preconceitos em sua concepção.

O documentário traz personagens reais, sendo duas delas Joy Buolamwini, cientista de computação do MIT (Instituto de Tecnologia de Massachusetts) e, Cathy O’Neil, a matemática americana, especialista em ciência de dados e doutora pela Universidade de Harvard.

A tecnologia de reconhecimento facial é usada atualmente para diferentes fins. Como exemplo, em ações de marketing, para avaliar a emoção dos consumidores e oferecer produtos conforme seus desejos. Ainda, pode ser usada para o  controle de governos, como no caso do Reino Unido, que colocou câmeras de reconhecimento facial pelas ruas para identificar pessoas e atenuar a criminalidade.

Mas o problema desta tecnologia são as falhas de avaliação que o reconhecimento facial apresenta, e é isso que o documentário revela.

A verdade é que o reconhecimento facial pode fazer avaliações incorretas sobre indivíduos. Isto porque, as avaliações são criadas primeiramente por humanos e depois se auto-desenvolvem por máquinas. Assim, sua concepção pode ter falhas e decisões automatizadas com viés preconceituoso.

O documentário deixa claro, por exemplo, que a tecnologia de reconhecimento facial desenvolvida pela Amazon, desfavorece negros e mulheres.

Há outros exemplos citados ao longo do documentário, em que algoritmos apresentaram falhas. Um deles é sobre um professor, que fora muito premiado por suas habilidades de ensinar, mas que quase foi demitido da escola porque uma empresa de tecnologia identificou que ele não agregava valor aos alunos. O problema destas tecnologias, é que as empresas que as criam não revelam a inteligência por trás da criação

Parece longe da nossa realidade, mas hoje tecnologias mais desenvolvidas são capazes de dizer muito sobre nós. Mas e se as avaliações apresentarem falhas? Se um resultado falho de uma decisão automatizada tirar de alguém as chances de alguém conseguir um emprego? E se for falha uma avaliação que identifica que um prisioneiro não tem capacidade de se reabilitar?

As personagens que aparecem no documentário lutam na vida real contra as falhas algorítmicas e já conseguiram algumas vitórias na esfera política dos Estados Unidos, com direito, inclusive, a um projeto de lei que espera banir os sistemas de reconhecimento facial do país.

Ao redor do mundo, diversas leis sobre privacidade e proteção de dados surgem para regular essas tecnologias, sendo o exemplo mais conhecido o General Data Protection Regulation, da União Europeia, vigente desde 2018. Contudo, as leis parecem ainda não resolverem os problemas trazidos pelo documentário.

É certo que ainda veremos novos episódios pela frente, mas por hora o documentário, dirigido pela cineasta e ativista Shalini Kantayya, traz uma apresentação envolvente sobre as falhas técnicas que os algoritmos desenvolveram, alertando-nos sobre os riscos de acentuar preconceitos já existentes.

TODAY’S GUEST TO CINEMARCO IS LAWYER HELOISA KORB BONDAN.

Netflix started showing in April 2021 the very interesting documentary CODED BIAS, which reveals a sensitive reality: the algorithms applied through facial recognition technology can bring prejudices in its conception.

The documentary features real characters, two of which are Joy Buolamwini, a computer scientist at MIT (Massachusetts Institute of Technology) and, Cathy O’Neil, American mathematics, a specialist in data science and a doctor from Harvard University.

Facial recognition technology is currently used for different purposes. As an example, in marketing actions, to assess the emotion of consumers and offer products according to their wishes. It can also be used to control governments, as in the case of the United Kingdom, which has placed facial recognition cameras on the streets to identify people and mitigate crime.

But the problem with this technology is the flaws in the evaluation that facial recognition presents, and that is what the documentary reveals.

The truth is that facial recognition can make incorrect assessments about individuals. This is because assessments are first created by humans and then self-developed by machines. Thus, its conception may have flaws and automated decisions with a prejudiced bias.

The documentary makes it clear, for example, that the facial recognition technology developed by Amazon, disadvantages blacks and women.

There are other examples cited throughout the documentary, in which algorithms have failed. One is about a teacher, who was highly prized for his teaching skills, but who was almost fired from school because a technology company identified that he did not add value to students. The problem with these technologies is that the companies that create them do not reveal the intelligence behind the creation

It seems far from our reality, but today more developed technologies are capable of saying a lot about us. But what if the evaluations are flawed? What if a flawed result of an automated decision takes away someone’s chances of getting a job? What if an assessment fails that identifies that a prisoner is unable to rehabilitate?

The characters that appear in the documentary struggle in real life against algorithmic flaws and have already achieved some victories in the political sphere of the United States, including the right to a bill that hopes to ban the country’s facial recognition systems.

Around the world, several laws on privacy and data protection appear to regulate these technologies, the best known example being the General Data Protection Regulation, of the European Union, in force since 2018. However, the laws still do not seem to solve the problems brought by the documentary.

It is true that we will still see new episodes ahead, but for now the documentary, directed by filmmaker and activist Shalini Kantayya, brings an engaging presentation on the technical flaws that the algorithms have developed, alerting us to the risks of accentuating existing prejudices.

Deixe uma resposta

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.