Observatory on European Studies _ UE pioneira da regulamentação da Inteligência Artificial

2021-06-07

Naiara Posenato*

A União Europeia busca recuperar terreno em relação a grandes competitors internacionais no setor da IA através da via regulamentar

No último dia 21 de abril Margrethe Vestager, Vice-Presidente Executiva de “Uma Europa preparada para a era digital”, uma das prioridades da Comissão Europeia 2019-2024, apresentou um projeto de quadro jurídico unitário para a disciplina da utilização da inteligência artificial no espaço europeu. Trata-se da “Proposta de Regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas sobre a Inteligência Artificial (Ato sobre a Inteligência Artificial) e emenda determinados atos legislativos europeus[1].

O objetivo geral do Ato sobre a Inteligência Artificial é implementar um ecossistema de confiança na União através da aprovação de  um quadro regulamentar para uma IA segura, confiável e centrada no ser humano. Nas palavras da própria Margrethe Vestager “a Inteligência Artificial está trazendo grandes benefícios para nossas vidas (...) Precisamos construir confiança nos sistemas de IA. Só podemos colher todos os benefícios do potencial social e econômico da IA se confiarmos que podemos mitigar os riscos associados”.[2] Todavia, é fundamental que a disciplina proposta seja equilibrada, no sentido de que não deve dissuadir a capacidade de inovação europeia e o desenvolvimento de novas tecnologias de excelência.

 Em específico, a legislação visa: garantir que os sistemas de IA colocados no mercado da União sejam seguros e respeitem a normativa em matéria de direitos fundamentais e os valores europeus; proporcionar segurança jurídica para impulsionar investimentos em IA; melhorar a governança e a aplicação efetiva das regras jurídicas da UE em vigor destinadas a proteger os direitos fundamentais; e facilitar o desenvolvimento de um mercado único para aplicações de IA legais, seguras e confiáveis ​​e prevenir a fragmentação do mercado.

Trata-se de Proposta de regulamento que deverá ser discutida pelo Conselho e pelo Parlamento no âmbito do processo legislativo ordinário e que, portanto, ainda pode comportar mudanças. Provavelmente, o processo legislativo não se concluirá antes de 2023 mas a partir daquele momento cada Estado-Membro deverá adequar a própria legislação para respeitar o seu conteúdo, além de assumir outras obrigações específicas, como individuar a autoridade nacional encarregada de supervisionar a aplicação da normativa. É prevista também a criação de um órgão centralizado, o European Artificial Intelligence Board, com representantes dos Estados e da Comissão Europeia.

A Proposta de Ato sobre a Inteligência Artificial é um documento complexo, com 85 artigos subdivididos em XII títulos, e 9 anexos de conteúdo principalmente técnico, totalizando quase 110 páginas. O seu âmbito de aplicação são as tecnologias de IA para uso não militar e o mesmo vinculará territorialmente tanto aos operadores europeus quanto aos fornecedores de sistemas de IA, públicos ou privados, mesmo aqueles estabelecidos fora da Europa mas que atuem neste mercado. Às empresas que não se adequarão as novas regras poderão ser impostas multas de até 6 % do próprio volume de negócios. Os utilizadores de sistemas de inteligência a risco elevado (por exemplo, instituições que adquiram ferramentas de IA para análise de currículos, instituições policiais ou judiciais) também estão submetidas a estas regras.

Bruxelas adota uma abordagem baseada no risco que a IA pode causar à saúde e à segurança dos indivíduos bem como aos direitos fundamentais, em consideração da finalidade da sua utilização e do contexto onde a mesma é empregada. Assim, são definidos três níveis de ameaça em ordem crescente (mínimo, moderado e elevado, classificadas sob a forma de pirâmide) além de uma quarta categoria considerada de risco inadmissível, que contém as aplicações de IA proibidas no território europeu (art. 5): são as tecnologias usadas em sistemas de social scoring ou classificação social pelos governos, as que manipulam o comportamento de pessoas utilizando técnicas subliminares ou explorando a sua vulnerabilidade (por exemplo jogos que levem crianças a provocar a si mesmas ou a terceiros danos físicos ou psicológicos), assim como os sistemas de vigilância massiva como a identificação biométrica remota em espaços públicos; estes últimos poderão ser autorizados excepcionalmente e em casos específicos, como a busca de potenciais vítimas de crimes, de crianças desaparecidas e de indivíduos suspeitos ou condenados por crimes graves, assim como para a prevenção a crimes e ataques terroristas.  

A grande maioria dos sistemas de IA são considerados de risco mínimo e o seu uso é permitido sem restrições e não será afetado pela disciplina europeia. Trata-se, por exemplo, de filtros spam ou de sistemas de IA utilizados para otimizar processos de fabricação. Um segundo nível, considerado moderado, é assignado a todos os sistemas de IA que podem gerar riscos de manipulação e que, portanto, são submetidos a deveres de transparência específicos. Os relativos usuários deverão ser informados sobre a existência do próprio sistema para que possam, desta forma, tomar decisões informadas, como é o caso dos robôs de conversação (chatbots) ou dos vídeos deep-fakes (Título IV).

A parte mais consistente da normativa é destinada a regulamentar os sistemas considerados a risco elevado, tratados no Titulo III, Capítulo I e nos Anexos II e III da Proposta. Estes sistemas compreendem duas categorias: os sistemas de IA que constituem componentes de segurança de produtos abrangidos pela legislação setorial da União (a chamada New Legislative Framework) e submetidos à avaliação de conformidade por terceiros; e os chamados stand-alone AI systems ou sistemas independentes, que não estão integrados em outros produtos e serviços e que são utilizados em oito setores específicos. Tais setores são (Anexo III da Proposta): identificação biométrica e categorização de indivíduos; gestão de infraestruturas críticas; educação e formação profissional; recrutamento profissional e emprego, gestão de trabalhadores e acesso ao trabalho autônomo; serviços públicos e privados essenciais; aplicação coerciva da lei; gestão da migração, do asilo e do controle das fronteiras; administração da justiça e processos democráticos. Em tais setores podem ocorrer riscos significativos que são especificados através de hipóteses específicas elaboradas com base na especifica utilização da IA. Por exemplo, ferramentas utilizadas para o exame de currículos para o recrutamento e a seleção de pessoal ou para a admissão à universidade ou outras instituições de educação; sistemas que intervenham na valoração dos pedidos de crédito; que gerenciem o tráfego ou o fornecimento de água, eletricidade, gás; que auxiliem na verificação de autenticidade de documentos e de risco de imigração irregular; sistemas utilizados por autoridades que prevejam o uso de dados pessoais para avaliar provas em âmbito criminal ou para prever a ocorrência ou recorrência de um crime real ou potencial (a chamada justiça preditiva); destinados a auxiliar uma autoridade judiciária na investigação e interpretação dos fatos e da lei e na aplicação da lei a um conjunto concreto de fatos, entre outros. A lista de casos contida no Anexo III constitui um primeiro reconhecimento da Comissão na matéria e pode ser revista a qualquer tempo. De fato, em linha com quanto já afirmado no Livro Branco sobre a inteligência artificial, o quadro regulamentar deixa espaço para fazer face a desenvolvimentos futuros da própria IA.

As hipóteses de utilização de IA consideradas de risco elevado são permitidas, mas segundo a Proposta devem adequar-se a cinco requisitos obrigatórios relacionados a própria imissão no mercado e regulamentação, ou seja: utilizar um sistema de treinamento, validação e testes de dados de alta qualidade, relevantes e representativos para o domínico em que o sistema de IA será implantado  (art. 10); elaborar a relativa documentação técnica e a configuração para o acesso a fim de facilitar a rastreabilidade e a auditabilidade (arts. 11-12); garantir o tipo e grau de transparência apropriados e fornecer aos usuários informações sobre a capacidade e as limitações do sistema e sobre como usá-lo (art. 13); garantir a supervisão humana adequada para minimizar riscos (art. 14); garantir solidez técnica, exatidão e segurança (art. 15).  O sistema é flexível no sentido de que as soluções técnicas para garantir a conformidade com esses requisitos podem individuadas pelos próprios fornecedores, tendo em consideração o estado da arte e os avanços tecnológicos e científicos em cada área específica.

O Capítulo III da Proposta ainda estabelece um conjunto de obrigações horizontais para os fornecedores (quality management, avaliação de conformidade, log automáticos registrados), assim como para os produtores, importadores e distribuidores dos sistemas de IA no território europeu. Os próprios utilizadores de sistemas de IA a risco elevado acima indicados, segundo o art. 29 da Proposta, devem utilizar os sistemas segundo as instruções recebidas e de acordo com o direito nacional e da União, além de ter obrigações específicas de monitoração e caso exerçam o controle sobre os imput data.

 

[1] Na mesma ocasião, também foram publicados o Plano coordenado com os Estados-Membros e a Proposta de Regulamento complementar no setor máquinas. Já a partir de 2018 a UE, sobretudo através da própria Comissão Europeia e do Parlamento Europeu iniciou a conceber uma serie de iniciativas concretas de promoção e regulamentação da IA no âmbito da Estratégia europeia sobre a inteligência artificial, no âmbito da qual foi aprovado, por exemplo, o Livro Branco sobre a inteligência artificial - Uma abordagem europeia virada para a excelência e a confiança.

[2] Cf. Speech by Executive Vice-President Vestager at the press conference on fostering a European approach to Artificial Intelligence.

 

* Naiara Posenato

Professora agregada de Direito Comparado junto à Università degli Studi di Milano, Itália.