Please use this identifier to cite or link to this item: https://repositorio.ufjf.br/jspui/handle/ufjf/19833
Files in This Item:
File Description SizeFormat 
izabellaalvesjorgebittencourt.pdfPDF/A1.62 MBAdobe PDFThumbnail
View/Open
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Negri, Sérgio Marcos Carvalho de Ávila-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/3282764176353256pt_BR
dc.contributor.referee1Junquilho, Tainá Aguiar-
dc.contributor.referee1Latteshttp://lattes.cnpq.br/5848504606151120pt_BR
dc.contributor.referee2Anjos, Lucas Costa dos-
dc.contributor.referee2Latteshttp://lattes.cnpq.br/6223739836948293pt_BR
dc.contributor.referee3Machado, Joana de Souza-
dc.contributor.referee3Latteshttp://lattes.cnpq.br/3145804659613320pt_BR
dc.creatorBittencourt, Izabella Alves Jorge-
dc.creator.Latteshttp://lattes.cnpq.br/3313407898283614pt_BR
dc.date.accessioned2026-01-05T12:56:27Z-
dc.date.available2025-12-01-
dc.date.available2026-01-05T12:56:27Z-
dc.date.issued2025-09-10-
dc.identifier.urihttps://repositorio.ufjf.br/jspui/handle/ufjf/19833-
dc.description.abstractThis paper investigates the development of governance and algorithmic accountability mechanisms for artificial intelligence (AI) systems in the Brazilian Judiciary, proposing an Algorithmic Impact Assessment (AIA) methodology for the use of AI development in the judicial context. The study is based on the observation of the growing use and development of AI systems in the Judiciary and the recently approved Resolution 615 of the National Council of Justice (CNJ), which represents a paradigmatic transformation in the administration of justice. The research addresses the risks of algorithmic discrimination, decision-making opacity, and violation of fundamental rights, especially regarding vulnerable groups. Using a qualitative and interdisciplinary methodology, it combines normative and documentary analysis with a comparative study of international regulatory frameworks. The theoretical framework articulates two perspectives: critical theory of technology (Crawford, Zuboff, Eubanks) and democratic accountability theory (Bovens), proposing a methodology for assessing algorithmic impact (Mantelero). The research is structured around four axes: mapping AI systems in the judiciary; analysis of ethical and legal risks; construction of accountability bases; and development of an AIA methodology. It is argued that the current mechanisms established by CNJ Resolution No. 615/2025, although representing progress, are insufficient to ensure effective accountability. As a main contribution, an AIA methodology is proposed that integrates technical, legal, and social safeguards, aiming to ensure transparency, prevent discrimination, and protect fundamental rights, balancing technological innovation with the constitutional values of the Brazilian justice system.pt_BR
dc.description.resumoO presente trabalho investiga o desenvolvimento de mecanismos de governança e accountability algorítmico para sistemas de inteligência artificial (IA) no Poder Judiciário brasileiro, propondo uma metodologia de Avaliação de Impacto Algorítmico (AIA) aos usos de desenvolvimento de IA no contexto judicial. O estudo parte da constatação do crescente uso e desenvolvimento de sistemas de IA no Poder Judiciário e da recém aprovada Resolução 615 do Conselho Nacional de Justiça (CNJ), o qual representa uma transformação paradigmática na administração da justiça. A pesquisa problematiza os riscos de discriminação algorítmica, opacidade decisória e violação de direitos fundamentais, especialmente sobre grupos vulnerabilizados. Através de metodologia qualitativa e interdisciplinar, combina-se análise normativa, documental e estudo comparativo de frameworks regulatórios internacionais. O referencial teórico articula duas perspectivas: teoria crítica da tecnologia (Crawford, Zuboff, Eubanks) e teoria do accountability democrático (Bovens), propondo uma metodologia de avaliação de impacto algorítmico (Mantelero). A investigação estrutura-se em quatro eixos: mapeamento dos sistemas de IA no Judiciário; análise de riscos éticos e jurídicos; construção de bases do accountability e desenvolvimento de metodologia de AIA. Sustenta-se que os mecanismos atuais estabelecidos pela Resolução CNJ n.º 615/2025, embora representem avanços, são insuficientes para garantir accountability efetivo. Como contribuição principal, propõe-se uma metodologia de AIA que integre salvaguardas técnicas, jurídicas e sociais, visando assegurar transparência, prevenir discriminação e proteger direitos fundamentais, equilibrando inovação tecnológica com valores constitucionais do sistema de justiça brasileiro.pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal de Juiz de Fora (UFJF)pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentFaculdade de Direitopt_BR
dc.publisher.programPrograma de Pós-graduação em Direito e Inovaçãopt_BR
dc.publisher.initialsUFJFpt_BR
dc.rightsAcesso Abertopt_BR
dc.rightsAttribution-NonCommercial-ShareAlike 3.0 Brazil*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/3.0/br/*
dc.subjectPoder judiciáriopt_BR
dc.subjectAccountability algoritmopt_BR
dc.subjectAvaliação de impacto algorítimicopt_BR
dc.subjectJudiciarypt_BR
dc.subjectAlgorithmic accountabilitypt_BR
dc.subjectAlgorithmic impact assessmentpt_BR
dc.subject.cnpqCNPQ::CIENCIAS SOCIAIS APLICADAS::DIREITOpt_BR
dc.titleAvaliação de impacto algorítmico (AIA): ferramenta para accountability, uso e desenvolvimento ético de IA pelo poder judiciáriopt_BR
dc.typeDissertaçãopt_BR
Appears in Collections:Mestrado em Direito e Inovação (Dissertações)



This item is licensed under a Creative Commons License Creative Commons