INTELIGÊNCIA ARTIFICIAL E PRINCÍPIOS DE ASILOMAR
Resumo
OBJETIVO DO TRABALHO
Em “Artificial Intelligence: Regulatory Challenges and Riskification”[1], Paola Cantarini explicitou a necessidade e a complexidade de se desenvolver legislação sobre Inteligência Artificial que de um lado não obste demasiadamente seu desenvolvimento, mas que, de outro, respeite limites éticos e os direitos humanos.
Destacando como as técnicas de graduação dos níveis de risco no emprego da tecnologia podem ser úteis no esforço regulatório, esse resumo expandido busca investigar se os chamados Princípios de Asilomar poderiam fornecer as balizas morais ao processo legislativo.
METODOLOGIA UTILIZADA
O resumo expandido foi desenvolvido utilizando o método dedutivo, não se dispensando o suporte fornecido pela filosofia e pesquisa documental sobre o tema, especialmente em sites eletrônicos, que costumam atualizar mais rapidamente o repositório de notícias sobre Inteligência Artificial quando comparados às vias impressas tradicionais.
Buscou-se, de tal modo, promover o diálogo entre fontes filosóficas já historicamente consolidadas e o desenvolvimento tecnológico de ponta, tudo em uma visão interdisciplinar.
REVISÃO DE LITERATURA
Uma das grandes contribuições de F. Nietzsche ao pensamento filosófico atual foi a provocação de que “Deus está morto”[2], frase da qual se valeu para condensar a noção de que o centro gravitacional dos saberes científicos e éticos - especialmente no Ocidente - deixou de ser Deus. .
Posteriormente, com Foucault[3], sobreveio a reflexão de que também o Homem deixou de ser o ponto focal das investigações, o protagonista epistemológico, dando espaço, isto sim, às análises das estruturas dos sistemas mais que sobre o ser humano.
Nesse sentido, de todo pertinente a contribuição, em língua inglesa, de Paola Cantarini no artigo “Artificial Intelligence: Regulatory Challenges and Riskification”, no qual demonstrou a necessidade/importância de se exigir das “Big Techs” (as grandes empresas de tecnologia que dominam esta fatia de mercado) uma conduta tal “para que se tenha [o desenvolvimento de] uma Inteligência Artificial centrada no ser humano”[4], e não apenas em si mesma.
Para tanto, destacou que o rápido avanço dessa tecnologia - nas esferas pública e privada - vem se dando em um vácuo normativo na maioria dos países, havendo poucas exceções regulatórias, como aquelas no campo de “reconhecimento facial e dos carros autônomos”[5], frisando, em tempo, que as mais recentes empreitadas de regulação do tema advém especialmente da União Europeia, e de duas fontes.
A primeira é o Parlamento Europeu, que aprovou em 2017 as “Recommendations to the Commission on Civil Law provisions on Robotics” (em tradução livre: “Recomendações sobre Robótica à Comissão Legislativa”), com as quais se pretende regrar efeitos e implicações éticas dessa tecnologia, sem lhe obstar a inerente inovação.
A segunda advém do “White Paper on Artificial Intelligence - An European approach to excellence and trust” (em tradução livre: “Relatório branco sobre Inteligência Artificial - Uma abordagem europeia à excelência e confiança”), redigido pela Comissão Européia, que abordou o tema quantificando os níveis de risco (em inaceitável, alto, moderado e mínimo) advindos das aplicações que se utilizam de Inteligência Artificial.
Nada obstante, imperioso salientar que o “Future of Life Institute” (entidade do Terceiro Setor - Organização da Sociedade Civil - cujo corpo de diretores conta com nomes como o de Elon Musk, CEO da Tesla e da SpaceX) cunhou vinte e três princípios para o desenvolvimento ético da Inteligência Artificial, os batizando de Princípio de Asilomar[6].
O primeiro deles (em tradução livre) já dispõe que “O objetivo da pesquisa em IA não deve ser criar inteligência não direcionada, mas inteligência benéfica”, de modo que resta clara a preocupação de longo prazo em fazer a tecnologia em comento estar à serviço da humanidade, o que é reforçado no décimo primeiro princípio: “Valores Humanos: Os sistemas de I.A devem ser projetados e operados de modo a serem compatíveis com os ideais de dignidade humana, direitos, liberdades e diversidade cultural”.
O princípio de número vinte e três fecha a lista frisando que “A superinteligência só deve ser desenvolvida a serviço de ideais éticos amplamente compartilhados e para o benefício de toda a humanidade, em vez de um estado ou organização”.
Desse modo, tem-se que mesmo na hipótese de a legislação europeia sobre o tema surtir o chamado “Efeito Bruxelas” - que se trata de efeitos extraterritoriais das regulações sobre um tema -, os impactos legais poderão ser interpretados positivamente pela comunidade internacional, na hipótese de os chamados Princípios de Asilomar serem observados pelos legisladores.
RESULTADOS OBTIDOS OU ESPERADOS
Traçado o panorama regulatório europeu acerca da Inteligência Artificial, se apresenta como imperiosa a conclusão de que a era da autorregulação dos grandes desenvolvedores dessa tecnologia - especialmente as Big Techs - está na iminência de ser superada por um tempo de maior regulação estatal.
O grande desafio que se apresenta, pois, é o de se desenvolver legislação que seja suficientemente flexível para comportar a rápida inovação que a I.A traz consigo, mas que ao mesmo tempo consiga conter a maximização daquelas tecnologias que se apresentem na forma de riscos inaceitáveis e, também, mitigar ou afastar a lesividade daquelas com alto e médio potencial de causar danos.
Assim, a investigação inicialmente proposta por Paola Cantarini se revela como campo fértil para maiores debates, especialmente quando se considera que a Inteligência Artificial já vem sendo aplicada para a gestão jurídica, a exemplo do Supremo Tribunal Federal, que, em parceria com a UnB, está implementando o “Projeto Victor”.
Com esse - e por intermédio de Inteligência Artificial -, a Corte Excelsa pretende conferir maior celeridade processual na análise de recursos extraordinários, “especialmente quanto a sua classificação em temas de repercussão geral de maior incidência”[7], uma vez que o programa automatiza a conversão de imagens em textos, separa e classifica cada uma das peças do processo, e, também, identifica os temas jurídicos com maior incidência na Corte.
TÓPICOS CONCLUSIVOS
O artigo em estudo logrou esclarecer a importância de se regular o desenvolvimento da Inteligência Artificial, campo antes destituído de limites claros, uma vez que os próprios desenvolvedores ditavam seus rumos e fronteiras éticas.
Sendo, todavia, área da tecnologia não apenas com potencial realmente disruptivo (uma vez que agilizará a maioria das tarefas da vida quotidiana), mas setor no qual se investem quantias bilionárias todos os anos, restou claro que a abordagem da “risquificação” - isto é, de se escalonar o risco da atividade - é pertinente para os fins do que se pode ou não admitir que seja desenvolvido.
Outro aspecto que se destacou foi o “Efeito Bruxelas”, por intermédio do qual se prevê que algumas das regulações europeias pioneiras sobre o tema surtam efeitos extraterritoriais e acabem por regular (indiretamente) o desenvolvimento da tecnologia em outros países não diretamente sujeitos à jurisdição europeia.
De outro giro, pareceu pertinente continuar a investigação apontando se é possível se desenvolverem diretrizes éticas universais para o desenvolvimento de Inteligência Artificial, uma vez que, historicamente, as sociedades costumam ser plurais, e, portanto, apresentam valores diferentes umas das outras.
O impacto socioeconômico de sua implementação em larga escala não focada no ser humano deve, também, ser analisado, uma vez que a eventual substituição de mão de obra humana por robótica pode se apresentar como regra em um futuro em que a Inteligência Artificial esteja suficientemente madura.
Finalmente, a inclusividade da tecnologia é outro aspecto relevante, na exata medida em que se trata de inovação advinda eminentemente de países europeus e da América do Norte, o que poderá aprofundar ainda mais o abismo existente entre as sociedades mais e as menos tecnológicas.
Dado esse contexto, então, um caminho seguro a ser trilhado pode ser aquele da observância aos Princípios de Asilomar, uma série de 23 axiomas que podem ser seguidos para se atingir uma Inteligência Artificial ética, confiável e que tenha foco no ser humano, e não no desenvolvimento cego da tecnologia por si mesma.
[1] CANTARINI, P. Revista Jurídica Unicuritiba. vol. 05, n.º 67, Curitiba, 2021. p. 139
[2] NIETZSCHE, F. W. A Gaia Ciência. 1ª edição, São Paulo: Companhia das Letras, 2012.
[3] FOUCAULT, M. As palavras e as coisas. 8ª edição, São Paulo: Martins Fontes, 1999.
[4] CANTARINI, P. Revista Jurídica Unicuritiba. vol. 05, n.º 67, Curitiba, 2021. p. 139.
[5] Ibid., p. 138.
[6] A lista completa pode ser acessada em: https://futureoflife.org/2017/08/11/ai-principles/. Acesso em: 16 abr. 2023.
[7] Notícia completa: https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=471331&ori=1. Acesso em: 16 abr. 2023.
Texto completo:
PDFApontamentos
- Não há apontamentos.
Revista Pesquisando Direito