ANÁLISE COMPARATIVA DO PROJETO DE LEI 2338/2023 COM ABORDAGENS REGULATÓRIAS INTERNACIONAIS: COMO EVITAR A LAVAGEM NA INOVAÇÃO E ABORDAR DE FORMA ADEQUADA NOVOS DIREITOS FUNDAMENTAIS COMO OS NEURODIREITOS E O DIREITO AO SONHO
Resumen
O presente texto traz parte do parecer jurídico, elaborado por mim no âmbito do Instituto EthikAI e aberto a contribuições e debate da comunidade acadêmica vinculada ao CEADIN/USP e projeto UAI/IEA/USP, e visa, em suma trazer uma análise crítica, interdisciplinar, holística e comparativa do Projeto de Lei nº 2338/2023 em tramitação na Câmara dos Deputados com marcos normativos internacionais, além de trazer fundamentos na doutrina nacional e internacional. Parte-se de uma perspectiva técnico-normativa, ética e geopolítica, com ênfase na proteção de direitos fundamentais, na soberania tecnológica nacional e na compatibilização entre inovação e responsabilidade, fugindo de mantras como o de um necessário tradeoff entre tais temas, e evitando-se o que denominamos de”lavagem de inovação”, a exemplo do que já ocorre com a ethics washing green e blue washing. O parecer propõe um equilíbrio regulatório substantivo, destaca lacunas do texto atual, e propõe ajustes inspirados em boas práticas internacionais, sem perder de vista as especificidades do Sul Global. Junta-se a teoria à prática concreta, e evita-se dar soluções simplistas para problemas complexos.
METODOLOGIA
A metodologia adotada é qualitativa, normativa e comparada, baseada na análise documental de:
- versões oficiais do PL 2338/2023 (Senado e Câmara),
- AI Act e AI Liability Directive (UE),
- documentos regulatórios do Reino Unido e Japão,
- literatura especializada (Floridi, Hoffmann-Riem, Zuboff, Pasquinelli),
- dados empíricos sobre impactos ambientais, econômicos e geopolíticos de infraestruturas de IA no Brasil e América Latina.
Complementa-se com abordagem interdisciplinar (jurídica, filosófica, técnica e política), incorporando contribuições de pesquisas realizadas no Observatório Brasileiro de Inteligência Artificial (OBIA) e diálogos realizados em Fortaleza por ocasião do encontro IBGE e PNUD “Novas fronteiras do desenvolvimento humano no século XXI – desafios e marcos para a governança da IA no Brasil, além de pesquisas que estamos realizando desde 2019 no âmbito do Instituto Ethikai (ethikai.org; revistaethikai.org), e de projetos que coordenamos no âmbito da temática da governança, com destaque para coordenação da equipe de governança durante a Cátedra Oscar Sala/IEA/USP e coordenação da equipe de governança para o projeto UAI/IEA/USP.
RESULTADOS
O parecer demonstra:
- A fragilidade de diversos dispositivos do PL 2338 na versão atual da Câmara, sobretudo no tocante à ausência de instrumentos concretos para assegurar proteção efetiva de direitos fundamentais em diversos pontos, fiscalização independente e mecanismos de compensação por danos.
- A falta de exigências mínimas a fornecedores estrangeiros instalados no Brasil (como data centers), resultando em risco de colonialismo computacional.
- A ausência de mecanismos obrigatórios como sandbox público, auditorias externas e avaliação de impacto algorítmico com participação social, e trazendo requisitos mínimos, procedimentalização, obrigatoriedade de realização de forma prévia, em casos de risco alto, e incentivos claros e concretos para sua realização por startups e pequenas empresas.
- A insuficiência do modelo regulatório brasileiro para compatibilizar responsabilidade e inovação, embora no caminho certo neste sentido mas faltando medidas concretas e operacionais.
CONTRIBUIÇÕES
Entre as principais contribuições destacam-se:
- Proposta inovadora de reconhecimento do "direito aos sonhos" como novo direito fundamental vinculado aos neurodireitos e sugestão de um novo “bill of human rights” em face das exigências e atualizações que demandam a temática da IA.
- Formulação de um framework normativo de proteção a neurodireitos no contexto da IA.
- Denúncia da prática emergente de “lavagem da inovação” — paralela à ética-washing e greenwashing — em contextos regulatórios frágeis.
- Propostas de reciprocidade tecnológica, infraestruturas públicas de IA, sandboxes democráticos, e exigência de neutralidade climática para data centers.
- Sugestões para tornar o PL 2338 mais efetivo e justo, com base em experiências comparadas e princípios de justiça algorítmica, soberania digital e accountability público.
Palabras clave
Texto completo:
PDF (Português (Brasil))Referencias
ACEMOGLU, Daron; JOHNSON, Simon. Power and progress: our thousand- year struggle over technology and prosperity. New York: PublicAffairs, 2023.
AIZENBERG, Evgeni; VAN DEN HOVEN, Jeroen. Designing for human rights in AI. Big Data & Society. Disponível em: https://arxiv.org/abs/2005.04949.
ALLEN, Danielle.Justice by means of democracy. Chicago: University of Chicago Press, 2023.
ALMEIDA, Virgílio; DONEDA, Danilo; GASSER, Urs. A layered model for AI governance. IEEE Internet Computing, v. 21, n. 6, p. 58–62, 2017.
ALMEIDA, Virgílio; MENDONÇA, Ricardo Fabrino; FILGUEIRAS, Fernando. Algorithmic institutionalism: the changing rules of social and political life. Oxford: Oxford University Press, 2014.
AYRES, Ian; BRAITHWAITE, John. Responsive regulation: transcending the deregulation debate. Oxford: Oxford University Press, 1992. Disponível em: http://johnbraithwaite.com/wp-content/uploads/2016/06/Responsive- Regulation-Transce.pdf.
BAROCAS, Solon; HOOD, Sophie; ZIEWITZ, Malte. Governing algorithms: a provocation piece. Paper preparado para a Governing Algorithms Conference, p. 1-12, 2013. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2245322.
BENJAMIN, Ruha. Race after technology: abolitionist tools for the new Jim Code. Cambridge: Polity Press, 2019.
BERMAN, Paul Schiff. Cyberspace and the state action debate: the cultural value of applying constitutional norms to “private” regulation. University of Colorado Law Review, v. 71, p. 1263–1310, 2005. Disponível em: https://scholarship.law.gwu.edu/cgi/viewcontent.cgi?article=1083&context=f aculty_publications.
BOAVENTURA DE SOUSA SANTOS.A difícil democracia: reinventar as esquerdas. São Paulo: Boitempo, 2021.
BRUNO, Fernanda (Coord.).Tecnopolíticas da vigilância: perspectivas da margem. São Paulo: Boitempo, 2018.
BURRELL, Jenna. How the machine ‘thinks’: understanding opacity in machine learning algorithms. Big Data & Society, 2016. Disponível em: https://journals.sagepub.com/doi/full/10.1177/2053951715622512.
CAMPBELL-VERDUYN, Malcolm; GOGUEN, Miles; PORTER, Tony. Big data and algorithmic governance: the case of financial practices. New Political Economy, v. 22, n. 2, p. 219, 2017. Disponível em: https://www.researchgate.net/publication/306034022.
CANTARINI, Paola; GUERRA FILHO, Willis S. Teoria inclusiva dos direitos fundamentais e direito digital. São Paulo: Clube de Autores, 2020.
CANTARINI, Paola. Artificial Intelligence: regulatory challenges and riskification. *Revista Jurídica Unicuritiba*, v. 5, n. 67, p. 136–149, 2021. Disponível em: [http://revista.unicuritiba.edu.br/index.php/RevJur/article/view/5626/pdf](http://re vista.unicuritiba.edu.br/index.php/RevJur/article/view/5626/pdf).
CANTARINI, Paola. Biopolítica digital e novas formas de racismo em tempos de crise autoimunitária. *Public Interest Journal*, Belo Horizonte, v. 22, n. 122, p. 45–65, 2020. Disponível em: [https://dspace.almg.gov.br/handle/11037/38536](https://dspace.almg.gov.br/ha ndle/11037/38536).
CANTARINI, Paola. Governança de algoritmos de IA – uma abordagem das epistemologias do Sul. *Unicuritiba Journal*, v. 5, n. 72, p. 393–423, 2022. Disponível em: [http://revista.unicuritiba.edu.br/index.php/RevJur/article/view/6286](http://revist a.unicuritiba.edu.br/index.php/RevJur/article/view/6286).
CANTARINI, Paola. IA, direitos fundamentais por design e Estado Democrático de Direito desde a concepção. *Revista Jurídica Unicuritiba*, v. 4, n. 76, p. 22– 45, 2023. Disponível em: [https://revista.unicuritiba.edu.br/index.php/RevJur/article/view/6681](https://revi sta.unicuritiba.edu.br/index.php/RevJur/article/view/6681).
CANTARINI, Paola. Filosofia da AI, Lumen Juris editora, 2023.
CANTARINI, Paola. Governança da IA, Lumen Juris editora, 2024.
CHEHOUDI, Rafaa. Artificial intelligence and democracy: pathway to progress or decline. Journal of Information Technology & Politics, 2025.
CHOMSKY, Noam. Surviving the 21st century. New York: Penguin Books, 2021.
CHUL HAN, Byung. A sociedade da transparência. Petrópolis: Vozes, 2017.
CIHON, Peter. Standards for AI governance: international standards to enable global coordination in AI research & development. Oxford: Future of Humanity Institute, 2019.
CIHON, Peter; MAAS, Matthijs M.; KEMP, Luke. Should artificial intelligence governance be centralised? Design lessons from history. In: Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society (AIES), New York, 2020.
COECKELBERGH, Mark. Why AI undermines democracy and what to do about it. Cambridge: Polity Press, 2024.
COUNCIL OF EUROPE.Framework convention on AI and human rights. Strasbourg, 2024.
CRAWFORD, Kate. Atlas of AI: power, politics, and the planetary costs of artificial intelligence. New Haven: Yale University Press, 2021.
DAFOE, Allan. AI governance: a research agenda. Oxford: Future of Humanity Institute, 2018.
DAFOE, Allan. AI governance: opportunity and theory of impact. 2020. Disponível em: https://www.allandafoe.com/opportunity.
DATA & SOCIETY. Algorithmic accountability: a primer. New York, 2018. Disponível em: https://datasociety.net/wp- content/uploads/2018/04/Data_Society_Algorithmic_Accountability_Primer_FIN AL-4.pdf.
DONEDA, Danilo; ALMEIDA, Virgílio. What is algorithm governance? IEEE Internet Computing, v. 20, n. 4, p. 60–63, 2016.
EUBANKS, Virginia. Automating inequality: how high-tech tools profile, police, and punish the poor. New York: St. Martin’s Press, 2018.
FLORIDI, Luciano. The ethics of information. Oxford: Oxford University Press, 2013.
FLORIDI, Luciano. The fourth revolution: how the infosphere is reshaping human reality. Oxford: Oxford University Press, 2014.
FLORIDI, Luciano. The onlife manifesto: being human in a hyperconnected era. Cham: Springer, 2015.
GASSER, Urs; ALMEIDA, Virgílio. A layered model for AI governance. IEEE Internet Computing, v. 21, n. 6, p. 58–62, 2017.
GOOGLE. Perspectives on issues in AI governance. Disponível em: [https://ai.google/static/documents/perspectives-on-issues-in-ai- governance.pdf](https://ai.google/static/documents/perspectives-on-issues-in-ai- governance.pdf).
HOFFMANN-RIEM, Wolfgang. Teoria geral do direito digital. Rio de Janeiro: Forense, 2022.
HOOD, Christopher; HOTHSTEIN, Henry; BALDWIN, Robert. Government of risk: understanding risk regulation regimes. Oxford: Oxford University Press, 2001.
HUÉRFANO, Eliana Herrera; CABALLERO, Francisco Sierra; ROJAS, Carlos Del Valle. Hacia una epistemología del Sur: decolonialidad del saber-poder informativo. Disponível em: [https://dialnet.unirioja.es/servlet/articulo?codigo=5792037](https://dialnet.unirioj a.es/servlet/articulo?codigo=5792037).
KALPOKAS, Ignas. Algorithmic governance: politics and law in the post-human era. London: Palgrave Pivot, 2019.
KROLL, Joshua. Accountable algorithms. 2015. Disponível em: [https://www.jkroll.com/papers/dissertation.pdf](https://www.jkroll.com/papers/di ssertation.pdf).
LOTINGER, Sylvère; VIRILIO, Paul. The accident of art. New York: Semiotext(e), 2005.
MOROZOV, Evgeny. Silicon Valley: i signori del silicio. Milano: Codice Edizioni, 2019.
DOI: http://dx.doi.org/10.21902/RevPercurso.2316-7521.v2i50.7952
Enlaces refback
- No hay ningún enlace refback.
PERCURSO, e-ISSN: 2316-7521
Rua Chile, 1678, Rebouças, Curitiba/PR (Brasil). CEP 80.220-181
