DESINFORMAÇÃO E INTELIGÊNCIA ARTIFICIAL: IMPACTO DAS ALUCINAÇÕES NA UTILIZAÇÃO DO CHATGPT PARA A ÁREA ACADÊMICA
DOI:
https://doi.org/10.56238/arev7n12-164Palabras clave:
Alucinações, Desinformação, Inteligência Artificial, Pesquisa AcadêmicaResumen
Os avanços tecnológicos impulsionados pelas plataformas digitais ampliaram o risco de distorção de informações, intensificando a desinformação em ambientes comunicacionais. A introdução da inteligência artificial generativa na produção de conhecimento acrescenta novos desafios, ao possibilitar a geração de conteúdos factualmente imprecisos, conhecidos como “alucinações”. Este artigo analisa ocorrências desse fenômeno em sistemas de IA, com foco em testes realizados com o ChatGPT. A metodologia combinou revisão bibliográfica e experimentação por meio de comandos específicos para obtenção de informações acadêmicas, citações e referências. Os resultados evidenciaram a presença de inconsistências, erros factuais e referências inexistentes, indicando riscos relevantes para a integridade da pesquisa científica. Conclui-se que, embora úteis como ferramentas de apoio, modelos de IA exigem verificação rigorosa, atenção semântica e entendimento de suas limitações, de modo a evitar a propagação de conteúdo inverídico e preservar a qualidade das produções acadêmicas.
Descargas
Referencias
Buchanan, Bem et al. (2021). Truth, lies, and automation. Center for Security and Emerging Technology Report, May 2021. DOI: 10.51593/2021CA003
Campo, Maria; Ghafoori, Arman; Gupta, Manjul. AI Hallucination in the Wake of GenAI. Amplify: Anticipate, Innovate, Transform, v.27, n.15, 2024.
Carvalho, M. S. R. M. de. A trajetória da Internet no Brasil: do surgimento das redes de computadores à instituição dos mecanismos de governança. 2006. Dissertação, COPPE/UFRJ Rio de Janeiro, 2006
Cendón, Beatriz V. (2007) A Internet. In: Santos, Campello Bernardes; Valadares, Cendon Beatriz; Marguerite, Kremer Jeannette. Fontes de informação para pesquisadores e profissionais, 2ed.. Belo Horizonte: UFMG, 2007, Cap. 19
ChatGPT (2023). ChatGPT Advice and answers from the OpenAI Team. OpenAI Help Center Disponível em: https://help.openai.com/en/articles/6783457-what-is-chatgpt
Committee on Publication Ethics – COPE. (Comitê de Ética em Publicações) Authorship and AI tools (Ferramentas de autoria e IA). Disponível em: https://publicationethics.org/cope-position- statements/ai-author.
Connelly, Shane. Measuring Hallucinations in RAG Systems (Medindo Alucinações em Sistemas RAG). Vectara.com, 2023.
Open-source Hallucination Evaluation Model (HEM) (Modelo de Avaliação de Alucinações de código aberto). Disponível em: https://vectara.com/blog/measuring-hallucinations-in-rag-systems/
Cortiz, Diogo. Entendendo as Alucinações do ChatGPT. Disponível em: https://diogocortiz.com.br/entendendo-as-alucinacoes-do-chatgpt/
Diamond, Sarah. A.I. Chatbots, Hens and Humans Can All ‘Hallucinate’. The New York Times. Dec. 2023. Disponível em: https://www.nytimes.com/2023/12/17/insider/ai-chatbots-humans- hallucinate.html?auth=login-google1tap&login=google1tap.
Else, Holly. By ChatGPT Fool Scientists. Researchers cannot always differentiate between AI- generated and original abstracts. Nature, v. 613, 2023.
Farquhar, Samuel et al. Detecting hallucinations in large language models using semantic entropy. Nature. n. 630, 2024. DOI: https://doi.org/10.1038/s41586-024-07421-0
Galaz, Vitor; Daume, Stefan; Marklund, Arvid. A game changer for misinformation: The rise of generative AI - Chapter 6, Leverage Technologies, Climate misinformation, Stockholm Resilience Centre, Stockholm University, 2023.
Jakesch, Maurice; Hancock, Jeffrey; Naamãn, Mor. Human heuristics for AI-generated language are flawed. In: Proceedings of National Academy of Sciences of the United States of America, v.120, n.11, 2023. PNAS. Proceedings. DOI:10.1073/pnas.2208839120
Karlova, Natascha; Fisher Karen E. A social diffusion model of misinformation and disinformation for understanding human information behaviour. Information Research, v. 18, n. 1, paper 573, March 2013. Disponível em http://Informationr.net/ir/18-1/paper573.html.
Kirmani, A.R. Artificial intelligence-enabled science poetry. ACS Energy Letters, v. 8, 2022, pp. 574-576.
Mwenda, Edna. AI fails basic tests as students using it get answers wrong. Business Daily Africa. Disponível em: https://www-businessdailyafrica-com.translate.goog/bd/corporate/ technology/ai-fails- basic-tests-as-students-using-it-get-answers-wrong--4431696?_x_tr_sl= en&_x_tr_tl=pt&_x_tr_hl=pt- BR&_x_tr_pto=sc
O Sul. Entenda o que é a 'Alucinação' do ChatGPT e Por Que a Inteligência Artificial às Vezes Enlouquece. 2023.
Parlamento Europeu. O que é a inteligência artificial e como funciona? 2020 Europarl.eu.com. Atualidade - Sociedade.
Radford, A., Narasimhan, K., Salimans, T. and Sutskever, I.. Improving language Understanding by Generative Pre-training, 2018. Disponível em: https://s3-us-west- 2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_under standing_paper.pdf
Santos-d'Amorim, Karen; Miranda, Májory. (2021). Misinformation, disinformation, and malinformation: clarifying the definitions and examples in disinfodemic times. Encontros Bibli Revista Eletrônica de Biblioteconomia e Ciência da Informação, 2021. DOI: 10.5007/1518-2924.2021.e76900
Simon, Felix M.; Altay, Sacha; Mercier, Hugo. Misinformation reloaded? Fears about the impact of generative AI on misinformation are overblown. Harvard Kennedy School (HKS) Misinformation Review, v.4, n.5. October, 2023.
Spinak, Ernesto. Inteligência Artificial e comunicação da pesquisa. Scielo em Perspectiva, 2023. Disponível em: https://blog.scielo.org/blog/2023/08/30/inteligencia-artificial-e-a- comunicacao-da-pesquisa/
Verma, Pranshu; Oremus, Will. ChatGPT Invented a Sexual Harrassment Scandal and Named a Real Law Prof as the Accused. The Washington Post, 5 April 2023.
Vosoughi, S.; Roy, D.; Aral, S. The spread of true and false news online. Science, v. 359 , n. 6380, 2018. Disponível em: https://ide.mit.edu/wp-cont ent/uploads/2018/12/2017-IDE-Research-Brief-False-News.pdf. DOI: 10.1126/science.aap9559
Zhou, Jiawei et al. Synthetic Lies: Understanding AI-Generated Misinformation and Evaluating Algorithmic and Human Solutions. In: CHI '23: Conference on Human Factors in Computing Systems. Hamburg Germany, 2023. DOI: 10.1145/3544548.358131
