Clique e Assine a partir de R$ 20,90/mês

Coded Bias: documentário da Netflix revela viés racista em algoritmos

A pesquisa acadêmica de Joy Buolamwini do MIT pode mudar legislações nos EUA e abalou empresas de tecnologia

Por Alexandre de Melo Atualizado em 17 abr 2021, 13h18 - Publicado em 16 abr 2021, 06h43

O documentário da Netflix Coded Bias (2020) é dirigido por Shalini Kantayya e investiga o viés racista e machista da inteligência artificial (IA) por trás dos algoritmos de reconhecimento facial. O enredo poderia fazer parte da série distópica Black Mirror, mas é tema de caloroso debate ético no mundo real.

Pesquisadora do Instituto de Tecnologia de Massachusetts (MIT), Joy Buolamwini apresenta as falhas que descobriu nessa tecnologia na pesquisa que conduz o filme.

O algoritmo de reconhecimento facial tem dificuldade para identificar rostos de negros e mulheres
O algoritmo de reconhecimento facial tem dificuldade para identificar rostos de negros e mulheres. Netlfix/Reprodução

Coded Bias mostra como Buolamwini percebeu o problema no reconhecimento facial: em uma tarefa no MIT Media Lab, ela posiciona o rosto em frente a uma tela com dispositivo de inteligência artificial, mas não é reconhecida.

Quando ela coloca uma máscara branca, o sistema consegue detectar. Assim, a pesquisadora começou a constatar que os programas de inteligência artificial são treinados para identificar padrões baseados em um conjunto de dados (de homens brancos) e, por isso, parecem não reconhecer com precisão faces femininas ou negras.

O reconhecimento facial está presente no cotidiano
O reconhecimento facial está presente no cotidiano Pedro Santana/Juliana Vitória/Guia do Estudante

“A tecnologia de reconhecimento foi construída utilizando uma amostragem menor de rostos negros e de mulheres. Esse fato impede uma taxa de acertos maior. Foi uma escolha enviesada. No entanto, é possível realimentar o algoritmo para reduzir o viés e melhorar a classificação”, afirma Simone Diniz Junqueira Barbosa, especialista na área de Interação Humano-Computador e professora da PUC-Rio

Além do estudo de Buolamwini , o documentário apresenta diversos trabalhos de outros pesquisadores e ativistas que lutam contra o uso sem regulação da tecnologia de reconhecimento. É o caso de  Silkie Carlo. Ela é diretora do Big Brother Watch, iniciativa que monitora o uso do reconhecimento facial pela polícia do Reino Unido. A preocupação no mundo todo é que a tecnologia de reconhecimento utilizada para segurança pública acuse e prenda suspeitos com base em uma análise errada.

ONG Big Brother Watch luta contra o uso indevido do reconhecimento facial pela polícia do Reino Unido
ONG Big Brother Watch luta contra o uso indevido do reconhecimento facial pela polícia do Reino Unido. Big Brother Watch UK/Reprodução

A IA já é usada para determinar se uma pessoa merece receber crédito no banco ou não, se um suspeito deve ser preso e se um doente deve ter prioridade no atendimento de hospital.

“Grandes empresas usam o reconhecimento para que funcionários batam ponto. Policiais encontram criminosos foragidos. Médicos conseguem identificar doenças por meio de imagens. Quando há uma massa de dados mais equilibrada, podemos reduzir diversos vieses. Mas obter esses dados para evitar os vieses dos algoritmos é um grande desafio”, diz Barbosa.

Continua após a publicidade

Na PUC-Rio há um grupo de pesquisa sobre Ética e Mediação Algorítimica de Processos Sociais (EMAPS) dedicado ao tema.

“As pesquisas envolvem times multidisciplinares. Nós deixamos rastros digitais o tempo todo, o que torna as considerações éticas mais urgentes e importantes. Os dados são valiosos porque eles podem ser usados por empresas ou governos para manipular o nosso comportamento. E devemos evitar essas manipulações”, explica Barbosa.

  • O filme Coded Bias dá exemplos: na China,  protestos em Hong Kong são feitos com manifestantes de máscaras para impedir o reconhecimento facial. A tecnologia de reconhecimento é usada pelo governo chinês para prender suspeitos. Nessas manifestações, grupos se organizam para pichar as câmeras de segurança. Nos EUA, um condomínio no Brooklyn, onde predominam as populações negras e latinas, utiliza reconhecimento facial sem consentimento dos moradores.

    Pesquisadora do MIT Joy Buolamwini em frente de um notebbok
    A descoberta acadêmica de Joy Buolamwini mudou legislações federais nos EUA sobre o uso de inteligência artificial no reconhecimento de faces. Netflix/Reprodução

    Segundo dados do documentário, mais de 117 milhões de pessoas nos Estados Unidos têm o rosto em redes de reconhecimento facial a que a polícia pode acessar. Em 25 de junho de 2020, sob influência da pesquisa de Buolamwini, que analisou dados enviesados de diversas empresas de tecnologia, parlamentares americanos apresentaram projeto de lei proibindo o uso federal de reconhecimento facial.

    No Brasil também não há regulação específica para a tecnologia, mas a Lei de Proteção de Dados fala sobre o assunto e exige maior transparência das práticas adotadas pelas empresas.

    Para saber mais sobre as pesquisas apresentadas em Coded Bias

    Livro Weapons of Math Destruction (Algoritmos de Destruição em Massa, na versão em português), da matemática Cathy O’Neil
    Compre aqui

    Livro Artificial Unintelligence: How Computers Misunderstand the World (Desinteligência Artificial: como os computadores entendem mal o mundo, na tradução livre), da jornalista Meredith Broussard
    Compre aqui

    Livro Algorithms of Oppression: How Search Engines Reinforce Racism (Algoritmos de opressão: como os motores de busca reforçam o racismo, na tradução livre), da professora da Universidade da Califórnia em Los Angeles Safiya Umoja Noble
    Compre aqui

    Quero Bolsa | Graduação, pós-graduação e técnico. Bolsas de Estudo com desconto de até 75% em mais de 1100 faculdades em todo o Brasil. Saiba mais!

    Continua após a publicidade
    Publicidade