Especial «Inteligência Artificial 2024» — Parte 1, de 3. «Regulamentar o Imprevisível».
Por Thiago Pereira, com a colaboração de Mauricio Neto.
—
Legale, n. 896.
Recentemente, um grupo de profissionais e ex profissionais da OpenAI e do Google DeepMind alertou, em uma carta aberta (1) publicada no website righttowarn.ai (2), sobre os riscos contingentes das tecnologias de Inteligência Artificial. Na forma de um manifesto, a carta intitulada «A Right to Warn about Advanced Artificial Intelligence», foi endossada por especialistas em IAs como Yoshua Bengio (3), ganhador do prêmio Turing, de 2018, por seu trabalho sobre deep learning (4).
Os signatários disseram acreditar que as Inteligências Artificiais têm o potencial de «oferecer benefícios sem precedentes à humanidade», mas alertaram para o fato de que elas comportam, estruturalmente, «sérios riscos» que a OpenAI e o Google apenas internamente os admitem.
«Enquanto não houver uma supervisão governamental eficaz sobre essas companhias, apenas os seus profissionais atuais e os seus ex profissionais poderão denunciá-las», diz a carta.
Acontece que uma «supervisão» supõe uma regulamentação.
Inteligência Artificial: três manifestos, um apelo
—
Um segundo manifesto, mais provocador, publicado na forma de um ensaio, projetou alguns cenários preocupantes a respeito da evolução das Inteligências Artificiais.
Seu autor, Leopold Aschenbrenner (5) é um ex-integrante da equipe de Superalignment da OpenAI, e sua carta aberta (6), intitulada «Situational Awareness: The Decade Ahead», recebeu a atenção de especialistas, políticos e investidores em razão de algumas de suas projeções, como o risco do vazamento de segredos algorítmicos relacionados aos estudos das IAs e, especialmente, as Inteligências Artificiais Gerais (AGIs), para o Partido Comunista da República Popular da China (7)(8)(9).
Segundo Aschenbrenner, as plataformas de IAs de interação por meio de linguagem natural, que ‹aprendem› enquanto interagem com humanos (o ChatGPT é o exemplo perfeito), evoluirão, até 2027, para ‹agentes de interação ativa› muito mais sofisticados do que os seus precursores atuais, como se fossem um «colega de trabalho», um «consultor» ou um «conselheiro» — alguns deles, capazes de fazer o trabalho de um engenheiro de Inteligência Artificial, por exemplo.
Descrito como «um dos documentos mais extraordinários que já li», por Scott Aaronson (10), cientista da computação, o ensaio de Aschenbrenner também foi elogiado por Jason Green-Lowe (11), diretor executivo do ‹Center for AI Policy› (12), por meio de uma nota pública na qual desabafou que «já passou da hora de regulamentarmos as IAs e seus mercados», referindo-se ao contexto norte-americano.
O ensaio de Leopold Aschenbrenner, e o desabafo de Jason Lowe-Green refletem as mesmas preocupações de um terceiro manifesto, a carta aberta (13) «Pause Giant AI Experiments», de maio de 2023, do ‹Future of Life Institute› (14) assinada por centenas de cientistas de IA e de outros campos de conhecimento, como o escritor Yuval Noah Harari (15); Andrew Critch (16), pesquisador de IAs pela Universidade de Berkeley; e Vincent Conitzer (17), professor de Ciências da Computação da Universidade de Oxford e da Universidade Carnegie Mellon, entre outros.
Os três manifestos têm em comum um apelo às gigantes da tecnologia, à sociedade civil e aos Governos para a urgência da regulamentação do desenvolvimento e da operação das IAs.
Não é pra menos. Aschenbrenner argumenta em seu ensaio que que as Inteligências Artificiais Gerais (AGI) poderão dar origem às superinteligências antes de 2030, capazes de desenvolver autonomamente, por exemplo, suas próprias pesquisas a seu respeito. Nesse nível, seria quase como se essas inteligências fossem capazes de algo parecido com a autoconsciência humana.
Inteligência Artificial: a urgência da regulamentação
—
Sem dúvida, a regulamentação é necessária, não apenas para o monitoramento das IAs e seus mercados, mas fundamentalmente para estabelecer os limites éticos de suas criações, uma vez que seus algoritmos e modelos matemáticos não são estéreis; pelo contrário, são concebidos por seres humanos, projetados por pessoas como você e eu e, portanto, — mesmo que de uma maneira não deliberada —, contaminados por sucessivas camadas de visões de mundo, de valores pessoais e institucionais, de matrizes étnicas e culturais, de interesses econômicos, juízos morais e influências pessoais.
Conforme o artigo de Michelle Lima (18), com Paulo Reganin (19), estamos «entre o deslumbramento e os fatos», lidando com um cenário totalmente novo. E como as pesquisas de maior envergadura correm sob sigilo, as mídias alimentam seus públicos com os seus próprios temores, visões quase apocalípticas sobre a dominação das Inteligências Artificiais, «um comportamento profundamente humano de projetar sobre as coisas suas próprias características — e suas piores deformações —, como a dominação e a submissão» (20).
Por isso, experimentalmente, nos sentimos como se tivéssemos de regulamentar o imprevisível. Ou o inimaginável.
É pouco provável (contém ironia) que as IAs sejam mais dominadoras, ambiciosas e competitivas do que os seres humanos. Por outro lado, se há uma lição que aprendemos com as IAs na última década, é que qualquer cenário que apostar contra sua evolução vai perder 100% das vezes. Um exemplo disso é a evolução do aprendizado profundo (deep learning).
Como fenômeno social, as regulamentações costumam suceder a radicalização dos desequilíbrios nos mercados, as ameaças à integridade das instituições governamentais e as disputas econômicas, — todos esses disfarçados, esteticamente, de conflitos ideológicos nos quais «um dos lados» vai defender que regulamentar, seja lá o que for, «é fazer a coisa certa».
Mas, como fenômeno jurídico, regulamentar não coincide, necessariamente, com «fazer a coisa certa», mas de construir, objetivamente, uma base de princípios, de estabelecer limites, definir critérios de supervisão, de avaliação e um sistema de responsabilização para os envolvidos. A regulamentação será o produto da correlação de forças entre os atores, representado por seus parlamentares.
Inteligência Artificial: a fragilidade dos códigos algorítmicos
—
Com a rápida popularização das IAs em 2022, por conta do lançamento do ChatGPT naquele ano, seus benefícios e seus riscos, — conhecidos por especialistas muitos anos antes —, se tornaram igualmente populares. Dois exemplos eloquentes, por exemplo, de «discriminação algorítmica» são os experimentos de Bart Nagel (21), desenvolvedor de web, e Nicolas Kayser-Bril (22), jornalista.
Nicolas submeteu ao Google Vision, duas fotos nas quais uma pessoa portava um termômetro infravermelho. Na foto com a pessoa asiática o Google Vision associou as tags «Tecnologia» e «Dispositivo Eletrônico» com 66% de certeza. Na imagem com a pessoa negra, portando o mesmo termômetro infravermelho, a tag «Arma» foi marcada com 88% de certeza.
Bart Nagel submeteu ao Google duas fotos nas quais uma mão porta um dispositivo de medição de velocidade à distância. Para a imagem na qual a mão tem a pele branca, as tags «Mão» e «Dispositivo» foram classificadas, respectivamente com 72 e 55% de certeza. Na foto com a mão de pele preta, portando o mesmo dispositivo de medição de velocidade à distância, as tags «Mão» e «Arma» foram classificadas, respectivamente com 77 e 61% de certeza.
Esses experimentos, reconhecidos pelo próprio Google, são exemplos do que vem sendo chamado de racismo algorítmico, fruto de bases de dados sem representação étnica adequada e visão computacional baseada em algoritmos enviesados que podem prejudicar gravemente a vida das pessoas e de suas famílias, em muitas situações, de maneira irremediável, como um erro de classificação cometido por uma IA de identificação biométrica à serviço da segurança pública.
Se, por um lado, as IAs têm potencializado o espírito inventivo e criativo de seus diversos públicos, por exemplo, na evolução tecnológica dos diagnósticos médicos e previsão de doenças, na criação de novos medicamentos, na predição de eventos meteorológicos e financeiros, na automação de processos produtivos e de serviços em praticamente todos os setores econômicos, nos sistemas de segurança e defesa nacional, na engenharia aeroespacial etc., por outro, são um desafio à liberdade e à equidade, à intimidade e à privacidade, à democracia e à propriedade intelectual.
Mas será possível desenvolver códigos algorítmicos isentos? Uma autoridade coletiva poderia, de alguma maneira, certificá-los? E como definir os limites entre a transparência dos algoritmos e a propriedade intelectual e o sigilo desses códigos, objetos de disputa comercial?
Especial «Inteligência Artificial 2024» — Parte 1, de 3. «Regulamentar o Imprevisível».
—
Leia a Parte 2, de 3, deste Artigo: «Regulamentação da Inteligência Artificial da União Europeia já é uma referência». Publicado neste portal, no dia 26 de agosto. Legale, n. 899. Clique aqui.
Leia a Parte 3, de 3, deste Artigo: «Como vai a regulamentação da Inteligência Artificial no Brasil?». Publicado neste portal, no dia 26 de agosto. Legale, n. 902. Clique aqui.
—
(1) «A Right to Warn about Advanced Artificial Intelligence».
(2) «Employees Say OpenAI and Google DeepMind Are Hiding Dangers From the Public», Time Magazine.
(3) «OpenAI, Google DeepMind Employees Warn of Serious Risks Posed by AI Technology», The Epoch Times.
(4) Yoshua Bengio, cientista da computação, é reconhecido por suas pesquisas a respeito de redes neurais artificiais e aprendizagem profunda (deep learning) que lhe renderam o Prêmio Turing, de 2019, e o Prêmio Princesa das Astúrias, de 2022.
(5) Leopold Aschenbrenner é um jovem profissional graduado aos 19 anos em Matemática, Estatística e Economia pela Universidade de Columbia. Foi membro do «Super Alignment Team» da OpenAI, um pequeno núcleo de pesquisa concentrado em monitorar os projetos de IA da OpenAI e garantir que nenhuma inteligência ou superinteligência criada pela companhia pudesse vir a dominar ou submeter os seres humanos. O núcleo foi extinto recentemente e durou menos que um ano.
(6) «Situational Awareness: The Decade Ahead».
(7) «Leopold Aschenbrenner’s Situational Awareness: AI from now to 2034», Axios.
(8) «IA vai chegar à superinteligência em 2027, afirma ex-OpenAI», O Estado de São Paulo.
(9) «Fired OpenAI Researcher Warns of Urgent CCP Espionage Threat», The Epoch Times.
(10) Scott Aaronson, cientista da computação, é um pesquisador concentrado no estudo da Teoria da Complexidade Computacional e da computação quântica, atualmente vinculado à Universidade do Texas.
(11) Jason Green-Lowe é advogado especializado em Direito Administrativo e Regulatório, pela Universidade de Harvard.
(12) ‹Center for AI Policy› é uma organização civil apartidária dedicada a denunciar as condutas antiéticas das companhias que desenvolvem e operam IAs.
(13) «Pause Giant AI Experiments».
(14) ‹Future of Life Institute› é uma organização que monitora a evolução das tecnologias transformadoras, capazes de oferecer riscos extremos à vida humana, em larga escala, com foco nas IAs, nas biotecnologias e nos armamentos nucleares.
(15) Yuval Noah Harari é historiador, filósofo e autor dos best-sellers «Sapiens: Uma breve história da humanidade», «Homo Deus: Uma breve história do amanhã» e «21 lições para o século 21».
(16) Andrew Critch, cientista pesquisador, concentra seus estudos em inteligência computacional e Teoria dos Jogos, pela Universidade de Berkeley e co-fundador e diretor executivo da Encultured.
(17) Vincent Conitzer, cientista pesquisador, concentra seus estudos em IAs e leciona Ciências da Computação na Universidade Carnegie Mellon e Ciências da Computação e Filosofia na Universidade de Oxford.
(18) «Inteligência Artificial e Direito: o deslumbramento e os fatos», Michelle Lima, advogada da Área de Prevenção e Resolução de Conflitos de Vaz de Almeida Advogados.
(19) Paulo Reganin é responsável pelo Núcleo de Comunicação de Vaz de Almeida Advogados.
(20) A projeção dos atributos, qualidades, desejos, vícios e perversões humanas sobre deuses, animais, elementos da natureza — e agora, Inteligências Artificiais — chama-se Antropomorfismo.
(21) Bart Nagel, desenvolvedor web full-stack.
(22) Nicolas Kayser-Bril, jornalista.
―
Análise Advocacia destaca Tributário Vaz de Almeida, liderado por Mauricio Nucci, como referência do mercado >
Análise Advocacia reconhece, pela 8ª vez, VAA como um dos «Escritórios Mais Admirados do Brasil» >
Julhi Bonespírito e Amanda Duarte são destaques no anuário Análise Advocacia Mulher 2024 >
Vaz de Almeida figura entre os Escritórios de Advocacia Mais Premiados do Brasil em 2023 >
Amanda Duarte recebe o reconhecimento Thomson Reuters Stand-Out Lawyer 2023 e 2024 >
Amanda Duarte é eleita, pela 2ª vez, uma das «Advogadas Mais Admiradas do Brasil» >
Vaz de Almeida segue entre os escritórios mais admirados na Advocacia Regional >
VAA é finalista do Prêmio Análise DNA+ FenaLaw 2023 >
—
Pessoas e Comunidade >
Conheça os nossos líderes >
Prêmios, Selos e Reconhecimentos >
Notícias: conteúdo de qualidade no nosso portal >
—
«Autoridade legal com elegância, desde 2001.»
—
Tributário >
Corporativo >
Relações do Setor Automotivo >
Prevenção e Resolução de Conflitos >
Relações de Trabalho, Mobilidade Global e Gestão de Pessoas >
Propriedade Intelectual >
ESG, Ambiental e Sustentabilidade >
Inovação, Direito Digital e Cibersegurança >
Infraestrutura, Imobiliário e Construção Civil >
Direito Administrativo, Direito Público e Regulatório >
—
Nossas publicações têm o objetivo de comunicar a perspectiva legal dos acontecimentos e prover contexto aos fatos jurídicos mais relevantes que podem influenciar companhias e organizações. Casos em concreto demandam atenção técnica personalizada sobre os fatos, e devem obter assessoria jurídica sob medida antes da adoção de qualquer providência legal ou paralegal. Se você, sua empresa ou o conselho de acionistas de sua organização precisam de aconselhamento, entre em contato com o advogado de sua confiança.
«Legale», «Artigo», «Especial», «Painel Tributário», «Temas Tributários» e «Notícias & Alertas» são informativos periódicos e constituem uma prestação de serviços à comunidade empresarial. Os conteúdos podem dispor de links para websites de terceiros, a fim de facilitar o acesso dos nossos seguidores e assinantes aos serviços e publicações referidos. Não nos responsabilizamos, entretanto, pela integridade destes links, que podem apresentar problemas como indisponibilidade de acesso em razão de falhas em seus servidores, acidentes nos sistemas de rede, fragilidades em seus mecanismos de segurança, entre outros.
—
Livre de Inteligência Artificial / Este conteúdo e imagem relacionada não foram gerados por IAs.
—
Fale com o Editor >
—
+55 19 3252-4324
Barão de Itapura, 2323
8° andar, Guanabara
Campinas, SP
Brasil