DETECÇÃO DE INTENÇÕES DE COMPRA E SERVIÇOS COM USO DE TÉCNICAS DE INTELIGÊNCIA ARTIFICIAL
DOI:
https://doi.org/10.56238/ERR01v10n4-031Palavras-chave:
Busca Semântica, Processamento de Linguagem Natural (PLN), Classificação de Consultas, Sistemas de Recomendação, TransformersResumo
Introdução: A crescente complexidade das interações em plataformas de e-commerce impõe desafios significativos à recuperação precisa de produtos e serviços, particularmente em consultas curtas e ruidosas em português brasileiro. Nesse contexto, modelos monolíngues baseados em arquiteturas Transformer emergem como soluções promissoras para capturar as nuances linguísticas locais, visando a redução de reformulações e do abandono de busca, elementos críticos para a experiência do usuário e taxas de conversão. Objetivo: O presente trabalho teve como objetivo principal desenvolver e avaliar um classificador de intenções de compra e contratação de serviços em consultas de e-commerce, empregando a técnica de transferência de aprendizado com modelos BERT pré-treinados especificamente para o português brasileiro. Materiais e Métodos: Para tanto, foi coletado e anotado manualmente um corpus de consultas obtidas na região de Parnaíba, categorizado em 92 intenções distintas. O pré-processamento incluiu limpeza, anonimização, normalização textual e a aplicação de técnicas de balanceamento e data augmentation para mitigar o desequilíbrio de classes. Realizou-se o fine-tuning do modelo `neuralmind/bert-large-portuguese-cased` (BERTimbau) utilizando as bibliotecas Hugging Face e PyTorch, com tokenização configurada para `max_length = 128`. A divisão dos dados foi estratificada (`test_size = 0,10`), complementada por validação cruzada estratificada, e o treinamento incorporou estratégias de regularização e early stopping. A avaliação de desempenho baseou-se em métricas como acurácia, precisão, recall e F1-score, com a fixação de sementes e o salvamento de checkpoints para garantir a reprodutibilidade. Resultado: No conjunto de validação, composto por 2.940 amostras, o modelo alcançou uma acurácia global de 96,43% e um F1-score médio ponderado de aproximadamente 0,96. As matrizes de confusão exibiram um padrão predominantemente diagonal, indicando alta precisão, embora se tenha observado maior confusão entre categorias semanticamente próximas e um desempenho ligeiramente inferior em classes com baixo suporte. O treinamento demonstrou convergência eficiente em 3–5 épocas, sendo o melhor checkpoint selecionado com base na acurácia. Conclusão: Os achados demonstram que a transferência de aprendizado com modelos BERT em português constitui uma solução viável e altamente eficaz para a detecção de intenções em consultas de e-commerce. Este trabalho resultou na entrega de um dataset rotulado de alta qualidade e de um modelo funcional, que pode ser integrado para aprimorar a experiência do usuário e otimizar sistemas de recomendação. Para futuras implementações em produção, recomenda-se a integração de sinais contextuais (como histórico do usuário e atributos de produto), bem como a exploração de oversampling e hierarquização de categorias para refinar o desempenho em classes mais desafiadoras.
Downloads
Referências
BORGES, Hilda Biazatti. IMPLEMENTAÇÃO DE BUSCA SEMÂNTICA EM E-COMMERCES COMO APOIO A PESQUISAS INTELIGENTES. Cachoeiro de Itapemirim: INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DO ESPÍRITO SANTO, 2024.
CASELI, Helena; FREITAS, Cláudia; VIOLA, Roberta. Processamento de Linguagem Natural. In: SILVA, Ticiana et al. (Orgs.). Minicursos do SBBD 2022. 1. ed. [S.l.]: SBC, 2022. p. 1–25.
DEVLIN, Jacob et al. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv, , 24 maio 2019. Disponível em: <http://arxiv.org/abs/1810.04805>. Acesso em: 14 set. 2025
HAMMES, Luiz Otávio Alves; FREITAS, Larissa Astrogildo De. Utilizando BERTimbau para a Classificação de Emoções em Português. In: SIMPÓSIO BRASILEIRO DE TECNOLOGIA DA INFORMAÇÃO E DA LINGUAGEM HUMANA. Anais do XIII Simpósio Brasileiro de Tecnologia da Informação e da Linguagem Humana (STIL 2021). Brasil: Sociedade Brasileira de Computação, 29 nov. 2021. Disponível em: <https://sol.sbc.org.br/index.php/stil/article/view/17784>. Acesso em: 14 set. 2025
KHURANA, Diksha et al. Natural language processing: state of the art, current trends and challenges. Multimedia Tools and Applications, v. 82, n. 3, p. 3713–3744, jan. 2023.
KIM, Hiun et al. Intent-based Product Collections for E-commerce using Pretrained Language Models. arXiv, , 15 out. 2021. Disponível em: <http://arxiv.org/abs/2110.08241>. Acesso em: 14 set. 2025
LECUN, Yann; BENGIO, Yoshua; HINTON, Geoffrey. Deep learning. Nature, v. 521, n. 7553, p. 436–444, 28 maio 2015.
PAN, Sinno Jialin; YANG, Qiang. A Survey on Transfer Learning. IEEE Transactions on Knowledge and Data Engineering, v. 22, n. 10, p. 1345–1359, out. 2010.
PEETERS, Ralph; BIZER, Christian. Supervised Contrastive Learning for Product Matching. In: WWW ’22: THE ACM WEB CONFERENCE 2022. Companion Proceedings of the Web Conference 2022. Virtual Event, Lyon France: ACM, 25 abr. 2022. Disponível em: <https://dl.acm.org/doi/10.1145/3487553.3524254>. Acesso em: 14 set. 2025
SCHMIDHUBER, Juergen. Deep Learning in Neural Networks: An Overview. Neural Networks, v. 61, p. 85–117, jan. 2015.
SPECIA, Lucia; RINO, Lucia Helena Machado. O desenvolvimento de um léxico para a geração de estruturas conceituais UNL. [S.l.: S.n.].
VASWANI, Ashish et al. Attention Is All You Need. arXiv, , 2 ago. 2023. Disponível em: <http://arxiv.org/abs/1706.03762>. Acesso em: 14 set. 2025
XIE, Yubo et al. Natural Language Processing with Commonsense Knowledge: A Survey. arXiv, , 13 set. 2024. Disponível em: <http://arxiv.org/abs/2108.04674>. Acesso em: 14 set. 2025
YULIANTON, Heribertus; CANDRA NOOR SANTI, Rina. Product Matching using Sentence-BERT: A Deep Learning Approach to E-Commerce Product Deduplication. Engineering and Technology Journal, v. 09, n. 12, 31 dez. 2024.
ZHANG, Han et al. Towards Personalized and Semantic Retrieval: An End-to-End Solution for E-commerce Search via Embedding Learning. arXiv, , 5 jun. 2020. Disponível em: <http://arxiv.org/abs/2006.02282>. Acesso em: 14 set. 2025