Entre rimas e algoritmos: uma investigação sobre tradução automática poética

Dissertação de Mestrado
por Caroline Félix de Oliveira
Publicado: 10/02/2026 - 09:55
Última modificação: 10/02/2026 - 09:56

Linha de pesquisa: Inteligência Artificial

Resumo: A tradução poética é uma tarefa complexa que vai além da simples transferência semântica, exigindo a preservação de ritmo, rima, imagens, elementos estilísticos e nuances
culturais. Apesar dos avanços na tradução automática, esses sistemas ainda apresentam limitações em contextos literários e poéticos. Este trabalho investiga as capacidades de modelos de tradução automática (TA) em seis pares de línguas (Português–Inglês, Inglês– Português, Português–Francês, Francês–Português, Inglês–Francês e Francês–Inglês), comparando modelos de tradução especializados, como Google Translate, MarianMT, mBART e OpenNMT usando Rede Recorrente Neural (RNN), incluindo fine-tuning com corpora de poemas e letras de música, com grandes modelos de linguagem (LLMs) como ChatGPT e Maritaca AI. Foi implementado um pipeline de avaliação em três fases, combinando (i) métricas automáticas (BLEU, METEOR, BERTScore, BARTScore) para medir similaridade lexical e semântica, (ii) modelagem de tópicos com BERTopic para avaliar a preservação temática, e (iii) avaliação humana especializada focada em estrutura poética, estilo, fluência e significado. Os resultados indicam que os LLMs e o Google Translate, superam consistentemente os modelos tradicionais de TA, enquanto o OpenNMT (RNN) apresentou desempenho inferior. O uso do prompt influenciou o desempenho dos LLMs: ChatGPT obteve maior fidelidade semântica com prompts gerais, enquanto Maritaca AI integrou melhor instruções poéticas explícitas em português. A avaliação humana confirmou melhores pontuações para LLMs em fluência e preservação do significado, embora todos os modelos tenham dificuldades em estrutura e estilo Poético. A modelagem de tópicos confirmou que esses modelos preservam melhor a consistência temática, muitas vezes alinhando-se mais às traduções humanas de referência do que aos poemas originais. Os efeitos do fine-tuning foram dependentes da arquitetura: mBART se beneficiou de poemas e letras de música, ao contrário do MarianMT e OpenNMT (RNN).

Sala para a defesa: Sala 1B126 - UFU

Coorientador: Paulo Henrique Ribeiro Gabriel - Universidade Federal de Uberlândia, Faculdade de Computação.
Banca Examinadora: 
Murillo Guimarães Carneiro - Universidade Federal de Uberlândia, Faculdade de Computação.
Ricardo Marcondes Marcacini - Universidade de São Paulo, Instituto de Ciências Matemáticas e de Computação.
Data e Horário: 
11/02/2026 - 09:00
Avenida João Naves de Ávila, 2121
Uberlândia, Minas Gerais, Brasil
38400-902
Campus Santa Mônica - Bloco 1B - Sala 126