Especial «Inteligência Artificial 2024» — Parte 2, de 3. «Regulamentação da Inteligência Artificial da União Europeia já é referência».
Por Thiago Pereira, com a
colaboração de Mauricio Neto.
—
Legale, n. 899.
No último dia 12 de julho de 2024, foi publicada, no Jornal Oficial da União Europeia, a Lei da Inteligência Artificial da União Europeia («EU AI Act») (1).
Traduzido como «Regulamento Inteligência Artificial», (exatamente assim, sem a preposição «de» na versão portuguesa dos sites oficiais da Comissão Europeia), o EU AI Act foi concebido para estabelecer um quadro jurídico uniforme a respeito (i) da proteção dos direitos dos cidadãos europeus no que diz respeito às Inteligências Artificiais de um modo geral; (ii) da limitação do uso de sistemas de identificação biométrica por autoridades policiais e sistemas privados de segurança; (iii) da proibição de sistemas de ranqueamento ou pontuação social usados para estratificar, manipular ou explorar as vulnerabilidades das pessoas; (iv) da responsabilização de pessoas e empresas pelo uso indevido desses recursos e vários outros temas relacionados.
Um marco legal histórico
Descrito como um «marco legal histórico» (2) pelo editorial da sala de imprensa do Parlamento Europeu, o EU AI Act já estava pronto e acabado desde o dia 9 de dezembro de 2023; depois foi validado pelo Parlamento no dia 13 de março de 2024; assinado no dia 13 de junho de 2024; e finalmente publicado no dia 12 de julho de 2024.
A publicação oficial, no último dia 12, que marca a etapa final de uma longa jornada legislativa que iniciou em 2021, dispara o cronômetro para a entrada em vigor, em etapas, de uma série de dispositivos como, por exemplo, a proibição da manipulação do comportamento humano para contornar o seu livre arbítrio.
Até 6 meses após a publicação, serão proibidas as IAs classificadas como inaceitáveis; e até 12 meses após a publicação do AI Act, os países membros devem nomear as autoridades competentes, prazo em que entram em vigor as obrigações dos fornecedores de modelos de IA de uso geral.
Até 18 meses após a entrada em vigor, devem ser emitidas as normas a respeito do monitoramento dos fornecedores de IA de alto risco; e até 24 meses após a entrada em vigor, devem estar plenamente conformes os sistemas de IA de biometria, infraestruturas críticas, educação, empregos, acesso a serviços públicos essenciais, imigração e administração da justiça. Até esta data, os países membros devem ter implementado as normas sobre sanções, incluindo multas (3).
A preocupação é legítima
Como dissemos na Parte 1, de 3, deste artigo (4), a regulamentação é necessária, não apenas para o monitoramento das IAs e seus mercados, mas fundamentalmente para estabelecer os limites éticos de suas criações, uma vez que seus algoritmos e modelos matemáticos não são estéreis; pelo contrário, são concebidos por seres humanos, projetados por pessoas como você e eu e, portanto, — mesmo que de uma maneira não deliberada —, contaminados por sucessivas camadas de visões de mundo, de valores pessoais e institucionais, de matrizes étnicas e culturais, de interesses econômicos, juízos morais e influências pessoais.
Os avanços tecnológicos, a qualidade do capital humano envolvido e as próprias IAs estão desenvolvendo novas IAs generativas, cada vez mais poderosas; e os modelos de IAs de uso geral já são influentes demais para que não haja uma regulamentação robusta, considerando os potenciais riscos sistémicos e seus reflexos sociais, políticos e econômicos.
Como a regulamentação europeia está estruturada
De uma maneira bem didática, a Lei da Inteligência Artificial da União Europeia estabeleceu uma classificação das IAs baseada em 4 níveis de risco: risco inaceitável, risco alto, risco limitado e risco mínimo ou ausente.
Essa estrutura deve ser replicada em dezenas de países, inclusive o Brasil.
As IAs de risco inaceitável e, portanto, proibidas, são as IAs capazes de manipulação subliminar e que podem literalmente mudar o comportamento de uma pessoa sem que ela tenha consciência disso como, por exemplo, sistemas desenvolvidos para influenciar as pessoas a votarem em um determinado candidato; e também são classificadas inaceitáveis as IAs que podem explorar as vulnerabilidades das pessoas por meio de manipulação subliminar de seu comportamento usando como gatilho, por exemplo, a precariedade da situação econômica, a fragilidade da estrutura familiar, os limites da capacidade física e o estado de saúde mental. Também estão proibidas as IAs que deduzem ou inferem o «valor» ou a «utilidade» das pessoas, categorizando-as com base em expressões de gênero, etnia, posição política, experiência religiosa, características fenotípicas (aparência), padrões de comportamento em compras on-line, interações em mídias sociais e outras variáveis, a fim de selecionar novos empregados, conceder ou bloquear créditos etc., exceto em casos de aplicação da lei com aprovação judicial e supervisão competente para a busca direcionada de vítimas de crimes, prevenção ao terrorismo e busca direcionada de criminosos.
Também são de risco inaceitável as IAs que avaliam o estado emocional das pessoas no local de trabalho, nas escolas e outros espaços reservados, exceto em casos de aplicação da lei com aprovação judicial e supervisão competente por motivo de segurança como, por exemplo, para detectar se um motorista, um piloto ou um operador de máquina está adormecido. Por fim, estão proibidas, as IAs que fazem policiamento preditivo, avaliando o risco de pessoas cometerem um crime no futuro com base em suas características pessoais e as IAs que captam imagens faciais para criar ou expandir bancos de dados.
As IAs de alto risco são admissíveis, mas serão fortemente supervisionadas em razão de sua criticidade. Por exemplo, IAs de diagnóstico médico, equipamentos e sistemas de segurança militar, sistemas de distribuição de energia, sistemas de transportes, sistemas de tráfego aéreo e vários outros que podem afetar negativamente a saúde e a segurança das pessoas, seus direitos fundamentais ou o meio ambiente.
As IAs de risco limitado incluem sistemas de IA que podem comunicar dados falsos, incorretos ou enganosos como, por exemplo, os chatbots de IAs generativas.
As IAs de risco mínimo são as que não se encaixam nas faixas ateriores.
As IAs de uso geral
Segundo o regulamento europeu, as IAs de uso geral terão que aderir a uma série de requisitos de transparência estabelecidos, o que vai solicitar da parte de seus desenvolvedores a elaboração de documentação técnica, o cumprimento da Lei de Direitos Autorais da UE e a publicação dos dados que foram usados para o treinamento dessas IAs. As IAs de uso geral mais poderosas, que podem representar riscos sistêmicos, enfrentarão requisitos adicionais, incluindo a realização de avaliações controladas de seus modelos.
Governança e autoridade
A fim de garantir a aplicação da Lei da Inteligência Artificial, a Comissão Europeia criou o «AI Office» (5), um gabinete com autoridade centralizada, com poderes para aplicar as regras comuns em todos os países membros. Composto por representantes de todos os membros da União Europeia, o AI Office será assessorado por um painel científico composto por peritos independentes, encarregados pelo desenvolvimento de metodologias de avaliação dos modelos de IAs, classificação de risco e monitoramento direto das IAs mais críticas. Além disso, o AI Office vai trabalhar em estreita colaboração com o «European Centre for Algorithmic Transparency», uma espécie de centro pela transparência algorítmica.
Quais as sanções aplicáveis em caso de infração, na UE?
Nos termos da Lei da Inteligência Artificial da União Europeia, IAs que não respeitem os requisitos e as condições previstos no regulamento serão objeto de sanções efetivas, proporcionais e dissuasivas.
As multas mais vultuosas podem chegar a 35 milhões de euros ou 7% do volume de negócios anual, a nível mundial, do exercício financeiro anterior. Nessa faixa estão as práticas classificadas com inaceitáveis (proibidas).
Na segunda banda as multas podem chegar ao valor de 15 milhões de euros ou 3% do volume de negócios anual, a nível mundial, sobre o exercício financeiro anterior. Nessa faixa a multa se aplica ao descumprimento de quaisquer outros requisitos ou obrigações do regulamento, incluindo a infração das regras sobre modelos de IA de finalidade geral.
Até 7,5 milhões de euros ou 1,5% do volume de negócios anual, a nível mundial, sobre o exercício financeiro anterior, estão as IAs cujos responsáveis prestem informações incorretas, incompletas ou enganosas às autoridades nacionais competentes.
Na terceira e última parte deste artigo, a experiência brasileira: contexto, atores, o processo legislativo e os cenários mais prováveis para a regulamentação das IAs no Brasil.
Especial «Inteligência Artificial 2024» — Parte 2, de 3. «Regulamentação da Inteligência Artificial da União Europeia já é referência».
—
Leia a Parte 1, de 3, deste Artigo: «Inteligência Artificial: Regulamentar o Imprevisível». Publicado neste portal, no dia 6 de julho. Legale, n. 896. Clique aqui.
Leia a Parte 3, de 3, deste Artigo: «Como vai a regulamentação da Inteligência Artificial no Brasil?». Publicado neste portal, no dia 26 de agosto. Legale, n. 902. Clique aqui.
—
(1) Fonte primária: leia a íntegra do EU AI Act na versão oficial portuguesa, com acesso aos documentos complementares relacionados. Clique aqui.
(2) A publicação «Artificial Intelligence Act: MEPs adopt landmark law», da sala de imprensa do Parlamento Europeu, fornece um painel resumido do EU AI Act bem interessante. A publicação foi feita no dia 13 de março passado, a data em que o Parlamento e a Comissão Europeia adotaram definitivamente o EU AI Act. Clique aqui.
(3) A assessoria de imprensa da Comissão Europeia publicou um guia chamado «Artificial Intelligence: questions and answers». É direto, didático e rico em conteúdo. Clique aqui.
(4) Parte 1, de 3, deste artigo: «Inteligência Artificial: Regulamentar o Imprevisível». Para o Especial «Inteligência Artificial 2024», publicado neste portal, no dia 6 de julho. Legale, n. 896. Clique aqui.
(5) Para uma compreensão um pouco mais detalhada a respeito do AI Office, a publicação «European AI Office», da Comissão Europeia, é uma excelente referência. Clique aqui.
—
O processo e o procedimento legislativo que resultou no EU AI Act
/ Para entender o contexto institucional e o processo legislativo aplicado pela União Europeia que resultou no EU AI Act, pode ajudar a leitura do guia «Institutional Context». Clique aqui.
/ Para entender o procedimento legislativo especificamente aplicado ao caso do EU AI Act, pode ser interessante ler o «The Ordinary Legislative Procedure». Clique aqui.
—
Para advogados
/ Fonte primária: o EU AI Act publicado no EUR-Lex, o portal legal oficial da União Europeia. Um layout leve e agradável para advogados e legisladores que querem aprofundar seus conhecimentos a respeito. Clique aqui.
—
Parlamento Europeu, Conselho Europeu, Conselho da União Europeia e Comissão Europeia
Parlamento Europeu
O Parlamento Europeu representa os cidadãos dos países da EU e seus membros, os parlamentares, são eleitos diretamente. O Parlamento toma decisões sobre leis em conjunto com o Conselho da União Europeia, aprova o orçamento da EU e gere uma rede de gabinetes de representação nas capitais da UE, Londres, Edimburgo e Washington D.C.
Conselho Europeu
O Conselho Europeu reúne os Chefes de Estado ou de Governo dos países membros para definir a orientação política geral e as prioridades da União Europeia. O Conselho Europeu é presidido por um presidente eleito por um mandato de dois anos e meio, renovável apenas uma vez.
Conselho da União Europeia
O Conselho da União Europeia representa os governos dos países membros por meio de seus ministros nacionais que reúnem-se em diferentes formações de acordo suas pastas e em função dos temas. O Conselho da UE toma decisões sobre a legislação europeia em conjunto com o Parlamento Europeu.
Comissão Europeia
A Comissão Europeia é o principal órgão executivo da EU, utiliza o seu «direito de iniciativa» para apresentar propostas legislativas analisadas e adotadas pelo Parlamento Europeu e pelo Conselho da União Europeia. Além disso, gere as políticas da UE (com exceção da Política Externa e de Segurança Comum, que é conduzida pelo Alto Representante para a PESC, Vice-Presidente da Comissão Europeia) e o orçamento da UE, e assegura que os países aplicam corretamente a legislação da UE. Os gabinetes de ligação são a voz da Comissão em toda a UE. Acompanham e analisam a opinião pública no país de acolhimento, fornecem informações sobre as políticas da UE e a forma como a UE funciona e facilitam a cooperação da Comissão com o país de acolhimento.
―
Análise Advocacia destaca Tributário Vaz de Almeida, liderado por Mauricio Nucci, como referência do mercado >
Análise Advocacia reconhece, pela 8ª vez, VAA como um dos «Escritórios Mais Admirados do Brasil» >
Julhi Bonespírito e Amanda Duarte são destaques no anuário Análise Advocacia Mulher 2024 >
Vaz de Almeida figura entre os Escritórios de Advocacia Mais Premiados do Brasil em 2023 >
Amanda Duarte recebe o reconhecimento Thomson Reuters Stand-Out Lawyer 2023 e 2024 >
Amanda Duarte é eleita, pela 2ª vez, uma das «Advogadas Mais Admiradas do Brasil» >
Vaz de Almeida segue entre os escritórios mais admirados na Advocacia Regional >
VAA é finalista do Prêmio Análise DNA+ FenaLaw 2023 >
—
Pessoas e Comunidade >
Conheça os nossos líderes >
Prêmios, Selos e Reconhecimentos >
Notícias: conteúdo de qualidade no nosso portal >
—
«Autoridade legal com elegância, desde 2001.»
—
Tributário >
Corporativo >
Relações do Setor Automotivo >
Prevenção e Resolução de Conflitos >
Relações de Trabalho, Mobilidade Global e Gestão de Pessoas >
Propriedade Intelectual >
ESG, Ambiental e Sustentabilidade >
Inovação, Direito Digital e Cibersegurança >
Infraestrutura, Imobiliário e Construção Civil >
Direito Administrativo, Direito Público e Regulatório >
—
Nossas publicações têm o objetivo de comunicar a perspectiva legal dos acontecimentos e prover contexto aos fatos jurídicos mais relevantes que podem influenciar companhias e organizações. Casos em concreto demandam atenção técnica personalizada sobre os fatos, e devem obter assessoria jurídica sob medida antes da adoção de qualquer providência legal ou paralegal. Se você, sua empresa ou o conselho de acionistas de sua organização precisam de aconselhamento, entre em contato com o advogado de sua confiança.
«Legale», «Artigo», «Especial», «Painel Tributário», «Temas Tributários» e «Notícias & Alertas» são informativos periódicos e constituem uma prestação de serviços à comunidade empresarial. Os conteúdos podem dispor de links para websites de terceiros, a fim de facilitar o acesso dos nossos seguidores e assinantes aos serviços e publicações referidos. Não nos responsabilizamos, entretanto, pela integridade destes links, que podem apresentar problemas como indisponibilidade de acesso em razão de falhas em seus servidores, acidentes nos sistemas de rede, fragilidades em seus mecanismos de segurança, entre outros.
—
Livre de Inteligência Artificial / Este conteúdo e imagem relacionada não foram gerados por IAs.
—
Fale com o Editor >
—
+55 19 3252-4324
Barão de Itapura, 2323
8° andar, Guanabara
Campinas, SP
Brasil