Please use this identifier to cite or link to this item: http://hdl.handle.net/10174/38507

Title: Enhancing software testing automation through large language models
Authors: Iznaga, Yanet Sáez
Advisors: Rato, Luís Miguel de Mendonça
León, Javier Lamar
Loureiro, Salgueiro Pedro Dinis
Keywords: Automated Software Testing
Large Language Models
Test Case Generation
Low-Rank Adaptation
Codestral Mamba Model
Testes de Software Automatizados
Modelos de Linguagem de Grande Escala
Geração de Casos de Teste
Adaptação de Baixa Ordem
Modelo Codestral Mamba
Issue Date: 20-May-2025
Publisher: Universidade de Évora
Abstract: This dissertation explores the application of advanced language models for automated software testing, focusing on generating high quality, context aware test scripts. It leverages the Codestral Mamba model using Low-Rank Adaptation technique to enhance test case generation. The model was fine-tuned on both the Test- Case2Code dataset and CONCODE/CodeXGLUE to evaluate its capability to produce syntactically and semantically accurate automated code testing cases from natural language descriptions. The findings highlight the model’s robustness, improving test coverage, software quality, and developer productivity. This research addresses key challenges in software testing and underscores the potential of integrating advanced language models into modern testing workflows; - Sumário: Melhorando a Automação de Testes de Software através de Modelo de Linguagem de Grande Escala Esta dissertação explora a aplicação de Modelo de Linguagem de Grande Escala para testes automatizados de software, focando na geração de scripts de teste de alta qualidade e sensíveis ao contexto. Utiliza o modelo Codestral Mamba, utilizando a técnica Low-Rank Adaptation para melhorar a geração de casos de teste. O modelo foi ajustado tanto no conjunto de dados TestCase2Code como no CONCODE/CodeXGLUE para avaliar a sua capacidade de produzir casos de teste automatizados precisos do ponto de vista sintático e semântico a partir de descrições em linguagem natural. Os resultados destacam a robustez do modelo, melhorando a cobertura de testes, a qualidade do software e a produtividade dos desenvolvedores. Esta pesquisa aborda desafios cruciais nos testes de software e sublinha o potencial de integrar modelos de linguagem avançados em fluxos de trabalho de testes modernos.
URI: http://hdl.handle.net/10174/38507
Type: masterThesis
Appears in Collections:BIB - Formação Avançada - Teses de Mestrado

Files in This Item:

File Description SizeFormat
Mestrado-Inteligencia_Artificial_e_Ciencia_de_Dados-Yanet_Saez_Iznaga.pdf6.17 MBAdobe PDFView/Open
FacebookTwitterDeliciousLinkedInDiggGoogle BookmarksMySpaceOrkut
Formato BibTex mendeley Endnote Logotipo do DeGóis 

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

 

Dspace Dspace
DSpace Software, version 1.6.2 Copyright © 2002-2008 MIT and Hewlett-Packard - Feedback
UEvora B-On Curriculum DeGois