ALGORITMOS, DISCRIMINAÇÃO E RISCOS EXISTENCIAIS DA INTELIGÊNCIA ARTIFICIAL: O PRINCÍPIO DA PRECAUÇÃO COMO OBRIGAÇÃO POSITIVA NO DIREITO INTERNACIONAL DOS DIREITOS HUMANOS

Maria Celeste Cordeiro Leite dos SANTOS, Fabio RIVELLI, Marco Antônio Lima da CRUZ FILHO

Abstract


Objetivo: analisar a crise estrutural do Direito Internacional dos Direitos Humanos ante os riscos existenciais e a discriminação algorítmica da IA, e demonstrar como o princípio da precaução emerge como obrigação positiva essencial para a sua efetiva governança. O estudo visa propor caminhos para a construção de arcabouço regulatório que traduza as obrigações de proteção em garantias jurídicas concretas para assegurar o a dignidade humana e os direitos fundamentais na era da IA. Metodologia: utiliza-se o método dedutivo e adota-se abordagem qualitativa, de natureza exploratória e descritiva, busca-se aprofundar a compreensão sobre os desafios impostos pela IA ao Direito Internacional dos Direitos Humanos. Emprega-se a técnica de revisão bibliográfica, que abrangerá literatura científica especializada, documentos normativos de organizações internacionais, tratados e convenções, bem como jurisprudência relevante sobre IA, direitos humanos e o princípio da precaução. Resultados: a proteção efetiva do direito à vida e à dignidade impõem deveres de diligência reforçada em face de riscos emergentes — sejam ambientais, tecnológicos ou híbridos. Essa orientação deve servir como parâmetro para o reconhecimento da IA como objeto de obrigações internacionais de cuidado. A discriminação algorítmica constitui o ponto mais visível da crise de legitimidade do Direito ante a automação. A crença na neutralidade técnica mascara a reprodução digital de hierarquias raciais, de gênero e socioeconômicas, e converte a desigualdade em estatística e o preconceito em cálculo. Contribuições: o estudo oferece contribuição à comunidade acadêmica ao expor o dilema estrutural do Direito Internacional dos Direitos Humanos diante da Inteligência Artificial, ao propor o princípio da precaução como imperativo ético e jurídico para mitigar riscos existenciais e a discriminação algorítmica. Para a sociedade civil, o estudo realça a urgência de governança global eficaz e mecanismos de responsabilização, essenciais para transformar a precaução em justiça e garantir que o avanço tecnológico preserve a dignidade humana e os direitos fundamentais, enfrentando os desafios impostos pela opacidade e velocidade do dano algorítmico.

Keywords


Inteligência artificial; Direitos humanos; Princípio da precaução; Discriminação algorítmica; Risco existencial.

References


ALEXY, Robert. The Dual Nature of Law. Ratio Juris, v. 23, n. 2, p. 167-182, jun. 2010.

AMODEI, Dario et al. Concrete Problems in AI Safety. arXiv:1606.06565, 21 jun. 2016. Disponível em: https://arxiv.org/abs/1606.06565 . Acesso em: 17 out. 2025.

BENJAMIN, Walter. Theses on the Philosophy of History. In: BENJAMIN, Walter. Selected Writings, v. 4, p. 1.938-1.940. Cambridge, MA: Harvard University Press, 2006.

BOSTROM, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2016.

BRIDLE, James. A nova idade das trevas: A tecnologia e o fim do futuro. Tradução de Érico Assis. São Paulo: Todavia, 2019.

CHRISTIAN, Brian. The Alignment Problem: How Can Machines Learn Human Values? New York: W.W. Norton & Company, 2021.

COUNCIL OF EUROPE. Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law. Adotada em 17 maio 2024; aberta para assinatura em 11 set. 2024. Council of Europe Treaty Series, n. 225. Disponível em: https://www.coe.int/en/web/artificial-intelligence/the-framework-convention-on-artificial-intelligence Acesso em: 17 out. 2025.

DRUZIN, Bryan; BOUTE, Anatole; RAMSDEN, Michael. Confronting catastrophic risk: the international obligation to regulate artificial intelligence. Michigan Journal of International Law, Ann Arbor, v. 46, n. 2, p. 173-217, 2025. Disponível em: https://repository.law.umich.edu/mjil/vol46/iss2/2 Acesso em: 17 out. 2025.

EDGECLIFFE-JOHNSON, Andrew. AI poses ‘bracing test’ to multilateral system, says UK deputy prime minister. Financial Times, Londres, 24 set. 2023. Disponível em: https://www.ft.com/content/9d98da0a-14e2-4bbb-a076-91ef131fe2b2 . Acesso em: 17 out. 2025.

EUROPEAN UNION. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence. Official Journal of the European Union, L 1689, 12 jul. 2024. Disponível em: https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence. Acesso em: 17 out. 2025.

FLORIDI, Luciano. On Human Dignity as a Foundation for the Right to Privacy. Philosophy & Technology, v. 29, p. 307-312, dez. 2016.

GABRIEL, Lason. Artificial Intelligence, Values and Alignment. arXiv:2001.09768, 13 jan. 2020. Disponível em: https://arxiv.org/abs/2001.09768 . Acesso em: 17 out. 2025.

HENDRYCKS, Dan et al. An Overview of Catastrophic AI Risks. arXiv:2306.12001, 21 jun. 2023. Disponível em: https://arxiv.org/abs/2306.12001 . Acesso em: 17 out. 2025.

HIRSH, Michael. How AI will revolutionize warfare. Foreign Policy, [S.l.], 11 abr. 2023. Disponível em: https://foreignpolicy.com/2023/04/11/ai-arms-race-artificial-intelligence-chatgpt-military-technology/ Acesso em: 17 out. 2025.

INTERNATIONAL DIALOGUE ON AI SAFETY (IDAIS). IDAIS Beijing Dialogue Report. Beijing: IDAIS, 10-11 mar. 2024. Disponível em: https://idais.ai/dialogue/idais-beijing . Acesso em: 17 out. 2025.

RVING, Geoffrey; CHRISTIANO, Paul; AMODEI, Dario. AI Safety via Debate. arXiv:1805.00899, 2 maio 2018. Disponível em: https://arxiv.org/abs/1805.00899 . Acesso em: 17 out. 2025.




DOI: http://dx.doi.org/10.21902/Revrima.v4i50.8199

Refbacks

  • There are currently no refbacks.




Brazilian Journal of Law and International Relations e-ISSN: 2316-2880

Rua Chile, 1678, Rebouças, Curitiba/PR (Brazil). CEP 80.220-181