PRORROGAMOS! Assine a partir de 1,50/semana

Coded Bias: documentário da Netflix revela viés racista em algoritmos

A pesquisa acadêmica de Joy Buolamwini do MIT pode mudar legislações nos EUA e abalou empresas de tecnologia

Por Alexandre de Melo
Atualizado em 17 abr 2021, 13h18 - Publicado em 16 abr 2021, 06h43
Moça negra atravessa a rua. No seu rosto há parâmetros da tecnologia de identificação de face
O filme Coded Bias investiga o viés racista no algoritmo de reconhecimento de face (Netflix/Reprodução)
Continua após publicidade

O documentário da Netflix Coded Bias (2020) é dirigido por Shalini Kantayya e investiga o viés racista e machista da inteligência artificial (IA) por trás dos algoritmos de reconhecimento facial. O enredo poderia fazer parte da série distópica Black Mirror, mas é tema de caloroso debate ético no mundo real.

Pesquisadora do Instituto de Tecnologia de Massachusetts (MIT), Joy Buolamwini apresenta as falhas que descobriu nessa tecnologia na pesquisa que conduz o filme.

O algoritmo de reconhecimento facial tem dificuldade para identificar rostos de negros e mulheres
O algoritmo de reconhecimento facial tem dificuldade para identificar rostos de negros e mulheres. (Netlfix/Reprodução)

Coded Bias mostra como Buolamwini percebeu o problema no reconhecimento facial: em uma tarefa no MIT Media Lab, ela posiciona o rosto em frente a uma tela com dispositivo de inteligência artificial, mas não é reconhecida.

Quando ela coloca uma máscara branca, o sistema consegue detectar. Assim, a pesquisadora começou a constatar que os programas de inteligência artificial são treinados para identificar padrões baseados em um conjunto de dados (de homens brancos) e, por isso, parecem não reconhecer com precisão faces femininas ou negras.

O reconhecimento facial está presente no cotidiano
O reconhecimento facial está presente no cotidiano (Pedro Santana/Juliana Vitória/Guia do Estudante)
Continua após a publicidade

“A tecnologia de reconhecimento foi construída utilizando uma amostragem menor de rostos negros e de mulheres. Esse fato impede uma taxa de acertos maior. Foi uma escolha enviesada. No entanto, é possível realimentar o algoritmo para reduzir o viés e melhorar a classificação”, afirma Simone Diniz Junqueira Barbosa, especialista na área de Interação Humano-Computador e professora da PUC-Rio

Além do estudo de Buolamwini , o documentário apresenta diversos trabalhos de outros pesquisadores e ativistas que lutam contra o uso sem regulação da tecnologia de reconhecimento. É o caso de  Silkie Carlo. Ela é diretora do Big Brother Watch, iniciativa que monitora o uso do reconhecimento facial pela polícia do Reino Unido. A preocupação no mundo todo é que a tecnologia de reconhecimento utilizada para segurança pública acuse e prenda suspeitos com base em uma análise errada.

ONG Big Brother Watch luta contra o uso indevido do reconhecimento facial pela polícia do Reino Unido
ONG Big Brother Watch luta contra o uso indevido do reconhecimento facial pela polícia do Reino Unido. (Big Brother Watch UK/Reprodução)

A IA já é usada para determinar se uma pessoa merece receber crédito no banco ou não, se um suspeito deve ser preso e se um doente deve ter prioridade no atendimento de hospital.

Continua após a publicidade

“Grandes empresas usam o reconhecimento para que funcionários batam ponto. Policiais encontram criminosos foragidos. Médicos conseguem identificar doenças por meio de imagens. Quando há uma massa de dados mais equilibrada, podemos reduzir diversos vieses. Mas obter esses dados para evitar os vieses dos algoritmos é um grande desafio”, diz Barbosa.

Na PUC-Rio há um grupo de pesquisa sobre Ética e Mediação Algorítimica de Processos Sociais (EMAPS) dedicado ao tema.

“As pesquisas envolvem times multidisciplinares. Nós deixamos rastros digitais o tempo todo, o que torna as considerações éticas mais urgentes e importantes. Os dados são valiosos porque eles podem ser usados por empresas ou governos para manipular o nosso comportamento. E devemos evitar essas manipulações”, explica Barbosa.

O filme Coded Bias dá exemplos: na China,  protestos em Hong Kong são feitos com manifestantes de máscaras para impedir o reconhecimento facial. A tecnologia de reconhecimento é usada pelo governo chinês para prender suspeitos. Nessas manifestações, grupos se organizam para pichar as câmeras de segurança. Nos EUA, um condomínio no Brooklyn, onde predominam as populações negras e latinas, utiliza reconhecimento facial sem consentimento dos moradores.

Continua após a publicidade
Coded Bias
A descoberta acadêmica de Joy Buolamwini mudou legislações federais nos EUA sobre o uso de inteligência artificial no reconhecimento de faces. (Netflix/Reprodução)

Segundo dados do documentário, mais de 117 milhões de pessoas nos Estados Unidos têm o rosto em redes de reconhecimento facial a que a polícia pode acessar. Em 25 de junho de 2020, sob influência da pesquisa de Buolamwini, que analisou dados enviesados de diversas empresas de tecnologia, parlamentares americanos apresentaram projeto de lei proibindo o uso federal de reconhecimento facial.

No Brasil também não há regulação específica para a tecnologia, mas a Lei de Proteção de Dados fala sobre o assunto e exige maior transparência das práticas adotadas pelas empresas.

Para saber mais sobre as pesquisas apresentadas em Coded Bias

Livro Weapons of Math Destruction (Algoritmos de Destruição em Massa, na versão em português), da matemática Cathy O’Neil
Compre aqui

Busca de Cursos

Continua após a publicidade

Livro Artificial Unintelligence: How Computers Misunderstand the World (Desinteligência Artificial: como os computadores entendem mal o mundo, na tradução livre), da jornalista Meredith Broussard
Compre aqui

Livro Algorithms of Oppression: How Search Engines Reinforce Racism (Algoritmos de opressão: como os motores de busca reforçam o racismo, na tradução livre), da professora da Universidade da Califórnia em Los Angeles Safiya Umoja Noble
Compre aqui

Quero Bolsa | Graduação, pós-graduação e técnico. Bolsas de Estudo com desconto de até 75% em mais de 1100 faculdades em todo o Brasil. Saiba mais!

Publicidade

Coded Bias: documentário da Netflix revela viés racista em algoritmos
Repertório Cultural
Coded Bias: documentário da Netflix revela viés racista em algoritmos
A pesquisa acadêmica de Joy Buolamwini do MIT pode mudar legislações nos EUA e abalou empresas de tecnologia

Essa é uma matéria exclusiva para assinantes. Se você já é assinante faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

BLACK
FRIDAY

MELHOR
OFERTA

Plano Anual
Plano Anual

Acesso ilimitado a todo conteúdo exclusivo do site

Apenas R$ 5,99/mês*

BLACK
FRIDAY
Plano Mensal
Plano Mensal

R$ 19,90/mês

PARABÉNS! Você já pode ler essa matéria grátis.
Fechar

Não vá embora sem ler essa matéria!
Assista um anúncio e leia grátis
CLIQUE AQUI.