.

Publicado em 23 de Março de 2021

Compartilhar:

Inteligência Artificial ética e confiável

O que podemos aprender com a proposta europeia?

Inteligência Artificial ética e confiável: o que podemos aprender com a proposta europeia?


A IA tem evoluído rapidamente nos últimos anos. Ela já está sendo utilizada nas mais diferentes áreas da economia e estamos ainda só no início da sua implantação que vai alterar nossas vidas em inúmeros aspectos. O potencial da IA, portanto, é enorme e em boa medida também desconhecido. É fato que seus benefícios já podem ser vislumbrados e alcançam a sociedade como um todo.

Os cidadãos podem ser beneficiados, por exemplo, com a melhoria da medicina, com o conforto proporcionado por eletrodomésticos conectados à rede (a internet das coisas), com sistemas de transporte inteligentes – mais seguros e menos poluentes – e com serviços públicos mais eficientes. As empresas poderão aumentar sua produtividade com a adoção de sistemas de decisão automatizados que atingirão áreas como a de serviços, a indústria e o agronegócio. O setor público certamente poderá ser aperfeiçoado com a adoção da IA: por exemplo, reduzindo os custos dos serviços públicos como transporte, educação e energia. Além disso, o judiciário poderá garantir que os processos cheguem ao fim com maior rapidez.

Por outro lado, a utilização da IA traz uma série de riscos a direitos fundamentais como a proteção dos dados pessoais e da privacidade, a proteção contra qualquer tipo de discriminação.[1] Pesquisas recentes que evidenciam as deficiências de sistemas de reconhecimento facial em identificar corretamente mulheres negras são um exemplo de problemas desse tipo.[2] Embora qualquer tomada de decisão possa ser equivocada e preconceituosa, o problema da decisão tomada por IA é que ela tem uma escala muito maior.

Em virtude da existência desses riscos, que não são exclusividade da IA, pois acompanham qualquer tipo de atividade humana, é que a sociedade se ocupa em estabelecer normas. Na verdade, a preocupação em legislar sobre IA é a evidência de seu papel central para as sociedades de hoje.

A regulação da IA é algo extremamente interdisciplinar, pois envolve um trabalho em conjunto de profissionais com conhecimentos de áreas diversas que se complementam. O profissional do direito também deve ser chamado a contribuir. O direito é, em grande medida, um instrumento para lidar com o risco, evitando-o ou reduzindo as suas consequências. Nenhuma empresa gostaria de ter sua marca relacionada a notícias na imprensa afirmando que os algoritmos por ela utilizados são discriminatórios. Isso produz um dano reputacional enorme, causando, por consequência, a perda de clientes. Daí a importância da implantação de um compliance voltado para a IA. Na última década vimos a preocupação com a proteção de dados: a década do Big Data. Esta década em que acabamos de entrar promete ser a década do Big Algo, isto é, a década em que a tomada de decisão por algoritmos será um assunto central em matéria de compliance.[3]Daí a necessidade de um esforço regulatório do qual toda a sociedade deve fazer parte.

A União Europeia anunciou uma abordagem coordenada sobre as implicações humanas e éticas da inteligência artificial. Essa abordagem propõe que o investimento em IA seja orientado no sentido de, ao mesmo tempo, promover sua adoção e garantir uma regulação capaz de lidar com os riscos que surgirão à medida em que essa tecnologia passar a ser adotada em grande escala. Afinal de contas, uma IA confiável é uma condição necessária para que as pessoas passem a utilizá-la. Por isso, uma regulação adequada da IA é a melhor maneira de obter confiança por parte dos cidadãos e das empresas e, dessa maneira, tornar o seu uso realmente disseminado. A proposta da União Europeia consiste em criar um “ecossistema de confiança”, baseado numa abordagem centrada no ser humano.[4]

Do ponto de vista europeu, o desenvolvimento da IA deve se basear nos valores e direitos fundamentais a partir dos quais aquela comunidade política foi construída, como a dignidade humana e a proteção da privacidade. Esse parece ser também o caminho brasileiro, dada a semelhança do nosso modelo jurídico com o europeu. No Brasil, já há algumas inciativas no Congresso Nacional, tanto na Câmara quanto no Senado de elaboração de normas que tratem do tema da IA.[5]

A União Europeia instituiu um Grupo de Peritos de Alto Nível que propôs sete requisitos essenciais para uma IA confiável: iniciativa e controle por humanos; robustez e segurança; privacidade e governança dos dados; transparência; diversidade; não discriminação e equidade; bem-estar social e ambiental e responsabilização. Além disso, o Grupo apresentou um checklist para que as empresas possam utilizar, a fim de aplicar cada um dos requisitos na prática. Esses checklists serão cada vez mais comuns no futuro e farão parte de um processo de auditagem da IA que ocorrerá nas organizações que utilizem essa tecnologia.

Um ponto fundamental nas recomendações da Comissão Europeia em relação às legislações que visem regular a IA é que elas devem ser eficazes para atingir os seus objetivos, mas não podem regular de forma excessiva, criando encargos desproporcionais. Para atingir este equilíbrio, a Comissão recomenda que se deve seguir uma abordagem baseada no risco.[6]

Assim, as aplicações de IA poderiam ser classificadas como de alto risco e de baixo risco. Em princípio, apenas as aplicações de alto risco ficariam obrigadas a se adequarem a certos requisitos legais obrigatórios propostos pelo Grupo de Peritos: adequação do dataset; conservação de registos e de dados; prestação de informações; robustez e exatidão; supervisão humana; requisitos específicos para determinadas aplicações de IA, tais como as utilizadas para fins de identificação biométrica à distância.

Mas o que seria uma aplicação de IA de alto risco? Ela deve ser considerada assim caso preencha dois requisitos cumulativamente:

1) a aplicação é utilizada num setor em que os riscos são maiores e a probabilidade deles se tornarem uma realidade é também maior. Isso ocorre em áreas como saúde, transportes e energia. Recomenda-se que os setores de alto risco sejam enumerados de forma específica e exaustiva para que não haja insegurança jurídica a esse respeito. Além disso, essa lista deve ser periodicamente revista e alterada, sempre que necessário, pois os novos desenvolvimentos em IA estão sempre ocorrendo;

2) é preciso também demonstrar que a aplicação de IA, além de se encontrar num setor de alto risco, é utilizada de uma forma que torna provável o surgimento de riscos significativos. Assim, nem todas as utilizações da IA mesmo dentro de um setor de alto risco, implicam a existência de riscos significativos. No setor de saúde, por exemplo, uma falha no sistema de marcação de horários de consultas num hospital normalmente não gera riscos significativos suficientes para justificar uma intervenção legislativa. O risco, portanto, deve ser avaliado conforme o impacto nas partes afetadas. Aplicações de IA que afetem direitos de pessoas naturais ou jurídicas; que estejam ligadas a riscos de lesão ou de morte devem ser tratadas de forma diferente do que aplicações que não são capazes de produzir consequências desse tipo.

A proposta europeia para uma IA ética e confiável é, portanto, um importante modelo para o Brasil. Esse é um caminho necessário se quisermos que a IA alcance todo o seu enorme potencial de gerar bem-estar para toda a sociedade, levando ao desenvolvimento econômico e social em nosso país.

Referências:

BUOLAMWINI, Joy. Response: Racial and Gender bias in Amazon Rekognition — Commercial AI System for Analyzing Faces. Disponível em: https://medium.com/@Joy.Buolamwini/response-racial-and-gender-bias-in-amazon-rekognition-commercial-ai-system-for-analyzing-faces-a289222eeced.

EUROPEAN COMISSION. White Paper on Artificial Intelligence: a European approach to excellence and trust. Disponível em: https://ec.europa.eu/info/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en.

EUROPEAN COMISSION. Ethics guidelines for trustworthy AI. Disponível em: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai.

KOSHIYAMA, Adriano et. al, 2021. Towards Algorithm Auditing: A Survey on Managing Legal, Ethical and Technological Risks of AI, ML and Associated Algorithms. SSRN (Jan, 2021), 1-31. DOI: https://dx.doi.org/10.2139/ssrn.3778998.


[1] EUROPEAN COMISSION. White Paper on Artificial Intelligence: a European approach to excellence and trust. Disponível em: https://ec.europa.eu/info/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en.

[2] BUOLAMWINI, Joy. Response: Racial and Gender bias in Amazon Rekognition — Commercial AI System for Analyzing Faces. Disponível em: https://medium.com/@Joy.Buolamwini/response-racial-and-gender-bias-in-amazon-rekognition-commercial-ai-system-for-analyzing-faces-a289222eeced.



[3] KOSHIYAMA, Adriano et. al, 2021. Towards Algorithm Auditing: A Survey on Managing Legal, Ethical and Technological Risks of AI, ML and Associated Algorithms. SSRN (Jan, 2021), 1-31. DOI: https://dx.doi.org/10.2139/ssrn.3778998.

[4] EUROPEAN COMISSION. Ethics guidelines for trustworthy AI. Disponível em: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai.

[5] Na Câmara dos Deputados, o PL 21/2020 (https://www.camara.leg.br/propostas-legislativas/2236340 ) e o PL 240/2020 (https://www.camara.leg.br/proposicoesWeb/prop_mostrarintegra;jsessionid=node0kbt38p317wg4qp3xc7ada5974668009.node0?codteor=1859803&filename=Avulso+-PL+240/2020). No Senado Federal, o PL 5051/2019 (https://www25.senado.leg.br/web/atividade/materias/-/materia/138790); o PL 5691/2019 (https://www25.senado.leg.br/web/atividade/materias/-/materia/139586) e o PL 872/2021 (https://www25.senado.leg.br/web/atividade/materias/-/materia/147434). 

[6] EUROPEAN COMISSION. White Paper on Artificial Intelligence: a European approach to excellence and trust. Disponível em: https://ec.europa.eu/info/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en.

1171 leituras 378 Curtidas

Sobre o Autor

André Gualtieri

André Gualtieri

Consultor em ética de IA. Professor.

Doutor em Filosofia do Direito pela PUC-SP. Mestre em Filosofia do Direito pela USP. Pesquisador e autor de publicações sobre inteligência artificial, big data e proteção de dados.

Leia Também

O Efeito Baunilha

O Efeito Baunilha

O desafio do uso em larga escala de Inteligência Artificial Generativa

1171 leituras 378 Curtidas
Compartilhar:
Café com o Presidente
Próximo Evento
25 de Abril de 2024

Café com o Presidente

Uma conversa com o Presidente da I2AI - Onédio S. Seabra Júnior - para falarmos sobre os temas mais quentes de Transformação Digital e Inteligência Artificial, num bate-papo informal com