https://repositorio.ufjf.br/jspui/handle/ufjf/19675| Campo DC | Valor | Lengua/Idioma |
|---|---|---|
| dc.contributor.advisor1 | Korkmaz, Maria Regina Detoni Cavalcanti Rigolon | - |
| dc.contributor.advisor1Lattes | http://lattes.cnpq.br/2016572586662958 | pt_BR |
| dc.contributor.referee1 | Mulholland, Caitlin Sampaio | - |
| dc.contributor.referee1Lattes | http://lattes.cnpq.br/5010668019661821 | pt_BR |
| dc.contributor.referee2 | Felipe, Bruno Farage da Costa | - |
| dc.contributor.referee2Lattes | http://lattes.cnpq.br/1479829527760142 | pt_BR |
| dc.creator | Batista, Daniel Enrico Sousa | - |
| dc.creator.Lattes | http://lattes.cnpq.br/7658870611700060 | pt_BR |
| dc.date.accessioned | 2025-10-24T12:48:48Z | - |
| dc.date.available | 2025-10-13 | - |
| dc.date.available | 2025-10-24T12:48:48Z | - |
| dc.date.issued | 2025-08-15 | - |
| dc.identifier.uri | https://repositorio.ufjf.br/jspui/handle/ufjf/19675 | - |
| dc.description.abstract | This article presents a critical analysis of the performance of generative artificial intelligence systems, especially large language models (LLMs), focusing on the risks arising from the dissemination of automated discourses lacking truthfulness and epistemic commitment. Based on the discussion of so-called careless speech, it was identified that these systems, despite their high textual fluency, tend to produce biased, inaccurate, or misleading content, undermining the reliability of the informational ecosystem and threatening fundamental rights. In light of the insufficiency of corporate self-regulation strategies, the need for state intervention through effective normative mechanisms is addressed. In this context, na analysis was conducted of Draft Bill no. 2.338/2023, which seeks to establish the Legal Framework for Artificial Intelligence in Brazil, aiming to verify whether the legislative proposal contains mechanisms capable of imposing a duty of truthfulness on generative AIs. It concludes that, although the bill introduces relevant principles – such as information integrity and system reliability – it lacks binding provisions that ensure a concrete obligation of truthfulness on the part of such systems. The absence of specific regulation on this issue weakens the legal protection of users and poses challenges to the consolidation of a plural, safe, and democratically aligned informational environment. | pt_BR |
| dc.description.resumo | O presente artigo propôs uma análise crítica acerca do funcionamento das inteligências artificiais generativas, em especial dos modelos de linguagem em larga escala (LLMs), com foco nos riscos decorrentes da disseminação de discursos automatizados carentes de veracidade e compromisso epistêmico. A partir da problematização dos chamados discursos descuidados (careless speech), identificou-se como esses sistemas, embora dotados de alta fluidez textual, produzem informações enviesadas, imprecisas ou enganosas, comprometendo a confiabilidade do ecossistema informacional e ameaçando direitos fundamentais. Diante da insuficiência das estratégias de autorregulação empresarial, discutiu-se a necessidade de intervenção estatal por meio de mecanismos normativos eficazes. Nessa perspectiva, foi realizada uma análise do Projeto de Lei n.º 2.338/2023, que busca instituir o Marco Legal da Inteligência Artificial no Brasil, com o objetivo de verificar se existem, na proposta legislativa, mecanismos capazes de impor às IA’s generativas um dever de veracidade. Concluiu-se que, embora o projeto apresente princípios relevantes, como a integridade da informação e a confiabilidade de robustez do sistema, carece de dispositivos impositivos capazes de assegurar o dever de veracidade por parte das IA’s generativas. A ausência de regulação específica sobre esse ponto fragiliza a proteção jurídica dos usuários e impõe desafios à consolidação de um ambiente informacional plural, seguro e compatível com os pressupostos do Estado Democrático de Direito. | pt_BR |
| dc.language | por | pt_BR |
| dc.publisher | Universidade Federal de Juiz de Fora (UFJF) | pt_BR |
| dc.publisher.country | Brasil | pt_BR |
| dc.publisher.department | Faculdade de Direito | pt_BR |
| dc.publisher.initials | UFJF | pt_BR |
| dc.rights | Acesso Embargado | pt_BR |
| dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/br/ | * |
| dc.subject | Inteligência artificial generativa | pt_BR |
| dc.subject | Discursos descuidados | pt_BR |
| dc.subject | Projeto de Lei n.º 2.338/2023 | pt_BR |
| dc.subject | Dever de veracidade | pt_BR |
| dc.subject | Generative artificial intelligence | pt_BR |
| dc.subject | Careless speech | pt_BR |
| dc.subject | Draft Bill No. 2.338/2023 | pt_BR |
| dc.subject | Duty of truthfulness | pt_BR |
| dc.subject.cnpq | CNPQ::CIENCIAS SOCIAIS APLICADAS::DIREITO::DIREITO PRIVADO | pt_BR |
| dc.title | A (in)existência do dever legal de veracidade na IA generativa: uma análise crítica do PL 2.338/2023 | pt_BR |
| dc.type | Trabalho de Conclusão de Curso | pt_BR |
| Aparece en las colecciones: | Faculdade de Direito - TCC Graduação | |
Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons