.

Publicado em 13 de Setembro de 2021

Compartilhar:

Por que assistir a Coded Bias?

.

Por que assistir a Coded Bias: o que o documentário traz de importante para a reflexão sobre uma IA ética.


Coded Bias é, para mim, até aqui, o melhor documentário a tratar dos impactos sociais das tecnologias que utilizam a inteligência artificial. É claro que esses documentários quase sempre enfatizam os riscos e os problemas causados pela inteligência artificial e é compreensível, já que, para além da crítica legítima em relação aos efeitos de qualquer tecnologia, parece que o público também tem uma predileção pelo lado polêmico das coisas. Coded Bias apresenta esse lado muito bem, o que não nos impede, no entanto, de apontarmos nós próprios os evidentes benefícios e avanços que a IA já trouxe e ainda nos trará.


Penso que esse é um primeiro ponto importante para se ter uma visão de conjunto sobre a IA, que concilia o viés crítico que o filme nos traz com o reconhecimento do potencial benéfico dessa tecnologia. Joy Buolamwini, que junto com Deborah Raji desenvolveu a pesquisa sobre viés racial nos sistemas de reconhecimento facial que toma grande parte do documentário, reconhece implicitamente esse potencial benéfico da tecnologia em geral – que não é inimiga da humanidade – mas faz o alerta sobre os riscos das promessas tecnológicas não se realizarem caso a sociedade se descuide dos seus aspectos éticos. Esse parece ser um bom modo de lidar com documentários críticos a determinados usos da inteligência artificial: não devemos sair com a impressão de que caminhamos para o “fim do mundo”, mas com o alerta de que cuidados devem ser tomados para que a IA possa servir para o bem-estar da humanidade que é, afinal de contas, o critério fundamental para que a utilização de uma tecnologia seja considerada em conformidade com a ética. O próprio filme mostra como a crítica de Joy trouxe resultados: numa conferência na África do Sul ela apresentou os aperfeiçoamentos que a IBM realizou em seu sistema de reconhecimento facial, que resultaram numa sensível redução na quantidade de erros de reconhecimento da biometria facial de pessoas negras.


O problema dos vieses raciais e de gênero no reconhecimento facial que o filme apresenta têm muito a ver com a falta de diversidade nos datasets utilizados para treinar algoritmos de machine learning. Buolamwini e Raji mostram em sua pesquisa que os datasets utilizados para treinar os sistemas de reconhecimento facial possuem quase que exclusivamente imagens coletadas nos Estados Unidos e em alguns países da Europa nos quais a população é majoritariamente branca. Por isso, não é de surpreender que haja mais erros no reconhecimento de pessoas negras. A IA será tão boa quanto a qualidade dos dados com os quais ela é alimentada. Daí a importância de garantir a diversidade nos datasets utilizados, bem como nas equipes de desenvolvimento de produtos de IA.


Um outro aspecto importante que o filme mostra: “dados são destino”. Como os dados são um reflexo da nossa história, seu uso traz o risco de que fiquemos presos ao passado, num looping que reproduz repetidamente o que já é, mas impede ou dificulta aquilo que pode vir a ser. Nesse contexto, as mudanças sociais que são necessárias de tempos em tempos se tornam mais difíceis de acontecer. Daí a importância da ética e do pensamento crítico aplicados à IA, pois eles podem colaborar para que ela não se desenvolva de modo a engessar o avanço social.


O documentário também faz um giro pelo mundo, abordando o uso do reconhecimento facial em Londres para fins de segurança pública e na China onde essa tecnologia é utilizada como o principal meio de pagamento pela população. O reconhecimento facial faz muitos temerem o surgimento de algo como uma distopia ao estilo do Big Brother do livro 1984, por outro lado, é certo que, para fins de segurança pública se trata de uma tecnologia bastante eficaz. O que fazer com ela ainda é tema de intensos debates no mundo inteiro. Algumas cidades dos Estados Unidos têm banido o uso dessa tecnologia, outras defendem seu uso regulado por lei que seja capaz de equilibrar a preocupação com a segurança com a garantia dos direitos das pessoas. Lidar de maneira adequada com essa tecnologia não é uma tarefa fácil. Certamente vai demandar ainda muitos debates e reflexões. No Brasil, recentemente o Governador de São Paulo vetou um projeto de lei que determinava o uso do reconhecimento facial nos trens do metrô e da CPTM com o objetivo de coibir a ação de criminosos nesses ambientes. O Governador justificou o veto afirmando que o projeto interfere indevidamente na liberdade das empresas que administram esses meios de transporte em São Paulo, além de violar leis estaduais e a Constituição. É interessante notar que o uso de reconhecimento facial na área de segurança pública ainda não possui regulação legal no Brasil já que a Lei Geral de Proteção de Dados (LGPD) não se aplica a tratamento de dados realizados para fins de segurança pública.


Coded Bias mostra com sucesso como não se pode separar o lado técnico do lado social, como afirma Joy Buolamwini. Muitos são os exemplos disso como o controle da população na China com o uso da tecnologia, as dificuldades que as redes sociais trazem para o funcionamento das democracias e a utilização de algoritmos para sugerir decisões em matéria criminal nos Estados Unidos.


Essa diversidade de questões de ordem social que a IA nos traz mostra como ela é uma tecnologia de propósito geral, que alcança os mais diversos aspectos da vida. Por isso a importância de parâmetros éticos que assegurem uma IA voltada para o bem-estar humano, e que resultarão no estabelecimento da governança e da regulação dessa tecnologia crucial para o futuro da humanidade. 

 

 


1425 leituras 344 Curtidas

Sobre o Autor

André Gualtieri

André Gualtieri

Consultor em ética de IA. Professor.

Doutor em Filosofia do Direito pela PUC-SP. Mestre em Filosofia do Direito pela USP. Pesquisador e autor de publicações sobre inteligência artificial, big data e proteção de dados.

Leia Também

O Efeito Baunilha

O Efeito Baunilha

O desafio do uso em larga escala de Inteligência Artificial Generativa

1425 leituras 344 Curtidas
Compartilhar:
Café com o Presidente
Próximo Evento
25 de Abril de 2024

Café com o Presidente

Uma conversa com o Presidente da I2AI - Onédio S. Seabra Júnior - para falarmos sobre os temas mais quentes de Transformação Digital e Inteligência Artificial, num bate-papo informal com