DESINFORMAÇÃO E INTELIGÊNCIA ARTIFICIAL: IMPACTO DAS ALUCINAÇÕES NA UTILIZAÇÃO DO CHATGPT PARA A ÁREA ACADÊMICA

Autores/as

  • Lívia Inglesis Barcellos Autor/a
  • João Pedro Albino Autor/a

DOI:

https://doi.org/10.56238/arev7n12-164

Palabras clave:

Alucinações, Desinformação, Inteligência Artificial, Pesquisa Acadêmica

Resumen

Os avanços tecnológicos impulsionados pelas plataformas digitais ampliaram o risco de distorção de informações, intensificando a desinformação em ambientes comunicacionais. A introdução da inteligência artificial generativa na produção de conhecimento acrescenta novos desafios, ao possibilitar a geração de conteúdos factualmente imprecisos, conhecidos como “alucinações”. Este artigo analisa ocorrências desse fenômeno em sistemas de IA, com foco em testes realizados com o ChatGPT. A metodologia combinou revisão bibliográfica e experimentação por meio de comandos específicos para obtenção de informações acadêmicas, citações e referências. Os resultados evidenciaram a presença de inconsistências, erros factuais e referências inexistentes, indicando riscos relevantes para a integridade da pesquisa científica. Conclui-se que, embora úteis como ferramentas de apoio, modelos de IA exigem verificação rigorosa, atenção semântica e entendimento de suas limitações, de modo a evitar a propagação de conteúdo inverídico e preservar a qualidade das produções acadêmicas.

Descargas

Los datos de descarga aún no están disponibles.

Referencias

Buchanan, Bem et al. (2021). Truth, lies, and automation. Center for Security and Emerging Technology Report, May 2021. DOI: 10.51593/2021CA003

Campo, Maria; Ghafoori, Arman; Gupta, Manjul. AI Hallucination in the Wake of GenAI. Amplify: Anticipate, Innovate, Transform, v.27, n.15, 2024.

Carvalho, M. S. R. M. de. A trajetória da Internet no Brasil: do surgimento das redes de computadores à instituição dos mecanismos de governança. 2006. Dissertação, COPPE/UFRJ Rio de Janeiro, 2006

Cendón, Beatriz V. (2007) A Internet. In: Santos, Campello Bernardes; Valadares, Cendon Beatriz; Marguerite, Kremer Jeannette. Fontes de informação para pesquisadores e profissionais, 2ed.. Belo Horizonte: UFMG, 2007, Cap. 19

ChatGPT (2023). ChatGPT Advice and answers from the OpenAI Team. OpenAI Help Center Disponível em: https://help.openai.com/en/articles/6783457-what-is-chatgpt

Committee on Publication Ethics – COPE. (Comitê de Ética em Publicações) Authorship and AI tools (Ferramentas de autoria e IA). Disponível em: https://publicationethics.org/cope-position- statements/ai-author.

Connelly, Shane. Measuring Hallucinations in RAG Systems (Medindo Alucinações em Sistemas RAG). Vectara.com, 2023.

Open-source Hallucination Evaluation Model (HEM) (Modelo de Avaliação de Alucinações de código aberto). Disponível em: https://vectara.com/blog/measuring-hallucinations-in-rag-systems/

Cortiz, Diogo. Entendendo as Alucinações do ChatGPT. Disponível em: https://diogocortiz.com.br/entendendo-as-alucinacoes-do-chatgpt/

Diamond, Sarah. A.I. Chatbots, Hens and Humans Can All ‘Hallucinate’. The New York Times. Dec. 2023. Disponível em: https://www.nytimes.com/2023/12/17/insider/ai-chatbots-humans- hallucinate.html?auth=login-google1tap&login=google1tap.

Else, Holly. By ChatGPT Fool Scientists. Researchers cannot always differentiate between AI- generated and original abstracts. Nature, v. 613, 2023.

Farquhar, Samuel et al. Detecting hallucinations in large language models using semantic entropy. Nature. n. 630, 2024. DOI: https://doi.org/10.1038/s41586-024-07421-0

Galaz, Vitor; Daume, Stefan; Marklund, Arvid. A game changer for misinformation: The rise of generative AI - Chapter 6, Leverage Technologies, Climate misinformation, Stockholm Resilience Centre, Stockholm University, 2023.

Jakesch, Maurice; Hancock, Jeffrey; Naamãn, Mor. Human heuristics for AI-generated language are flawed. In: Proceedings of National Academy of Sciences of the United States of America, v.120, n.11, 2023. PNAS. Proceedings. DOI:10.1073/pnas.2208839120

Karlova, Natascha; Fisher Karen E. A social diffusion model of misinformation and disinformation for understanding human information behaviour. Information Research, v. 18, n. 1, paper 573, March 2013. Disponível em http://Informationr.net/ir/18-1/paper573.html.

Kirmani, A.R. Artificial intelligence-enabled science poetry. ACS Energy Letters, v. 8, 2022, pp. 574-576.

Mwenda, Edna. AI fails basic tests as students using it get answers wrong. Business Daily Africa. Disponível em: https://www-businessdailyafrica-com.translate.goog/bd/corporate/ technology/ai-fails- basic-tests-as-students-using-it-get-answers-wrong--4431696?_x_tr_sl= en&_x_tr_tl=pt&_x_tr_hl=pt- BR&_x_tr_pto=sc

O Sul. Entenda o que é a 'Alucinação' do ChatGPT e Por Que a Inteligência Artificial às Vezes Enlouquece. 2023.

Parlamento Europeu. O que é a inteligência artificial e como funciona? 2020 Europarl.eu.com. Atualidade - Sociedade.

Radford, A., Narasimhan, K., Salimans, T. and Sutskever, I.. Improving language Understanding by Generative Pre-training, 2018. Disponível em: https://s3-us-west- 2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_under standing_paper.pdf

Santos-d'Amorim, Karen; Miranda, Májory. (2021). Misinformation, disinformation, and malinformation: clarifying the definitions and examples in disinfodemic times. Encontros Bibli Revista Eletrônica de Biblioteconomia e Ciência da Informação, 2021. DOI: 10.5007/1518-2924.2021.e76900

Simon, Felix M.; Altay, Sacha; Mercier, Hugo. Misinformation reloaded? Fears about the impact of generative AI on misinformation are overblown. Harvard Kennedy School (HKS) Misinformation Review, v.4, n.5. October, 2023.

Spinak, Ernesto. Inteligência Artificial e comunicação da pesquisa. Scielo em Perspectiva, 2023. Disponível em: https://blog.scielo.org/blog/2023/08/30/inteligencia-artificial-e-a- comunicacao-da-pesquisa/

Verma, Pranshu; Oremus, Will. ChatGPT Invented a Sexual Harrassment Scandal and Named a Real Law Prof as the Accused. The Washington Post, 5 April 2023.

Vosoughi, S.; Roy, D.; Aral, S. The spread of true and false news online. Science, v. 359 , n. 6380, 2018. Disponível em: https://ide.mit.edu/wp-cont ent/uploads/2018/12/2017-IDE-Research-Brief-False-News.pdf. DOI: 10.1126/science.aap9559

Zhou, Jiawei et al. Synthetic Lies: Understanding AI-Generated Misinformation and Evaluating Algorithmic and Human Solutions. In: CHI '23: Conference on Human Factors in Computing Systems. Hamburg Germany, 2023. DOI: 10.1145/3544548.358131

Publicado

2025-12-15

Número

Sección

Artigos

Cómo citar

BARCELLOS, Lívia Inglesis; ALBINO, João Pedro. DESINFORMAÇÃO E INTELIGÊNCIA ARTIFICIAL: IMPACTO DAS ALUCINAÇÕES NA UTILIZAÇÃO DO CHATGPT PARA A ÁREA ACADÊMICA. ARACÊ , [S. l.], v. 7, n. 12, p. e11100, 2025. DOI: 10.56238/arev7n12-164. Disponível em: https://periodicos.newsciencepubl.com/arace/article/view/11100. Acesso em: 29 dec. 2025.