Entre rimas e algoritmos: uma investigação sobre tradução automática poética
Publicado: 10/02/2026 - 09:55
Última modificação: 10/02/2026 - 09:56
Linha de pesquisa: Inteligência Artificial
Resumo: A tradução poética é uma tarefa complexa que vai além da simples transferência semântica, exigindo a preservação de ritmo, rima, imagens, elementos estilísticos e nuances
culturais. Apesar dos avanços na tradução automática, esses sistemas ainda apresentam limitações em contextos literários e poéticos. Este trabalho investiga as capacidades de modelos de tradução automática (TA) em seis pares de línguas (Português–Inglês, Inglês– Português, Português–Francês, Francês–Português, Inglês–Francês e Francês–Inglês), comparando modelos de tradução especializados, como Google Translate, MarianMT, mBART e OpenNMT usando Rede Recorrente Neural (RNN), incluindo fine-tuning com corpora de poemas e letras de música, com grandes modelos de linguagem (LLMs) como ChatGPT e Maritaca AI. Foi implementado um pipeline de avaliação em três fases, combinando (i) métricas automáticas (BLEU, METEOR, BERTScore, BARTScore) para medir similaridade lexical e semântica, (ii) modelagem de tópicos com BERTopic para avaliar a preservação temática, e (iii) avaliação humana especializada focada em estrutura poética, estilo, fluência e significado. Os resultados indicam que os LLMs e o Google Translate, superam consistentemente os modelos tradicionais de TA, enquanto o OpenNMT (RNN) apresentou desempenho inferior. O uso do prompt influenciou o desempenho dos LLMs: ChatGPT obteve maior fidelidade semântica com prompts gerais, enquanto Maritaca AI integrou melhor instruções poéticas explícitas em português. A avaliação humana confirmou melhores pontuações para LLMs em fluência e preservação do significado, embora todos os modelos tenham dificuldades em estrutura e estilo Poético. A modelagem de tópicos confirmou que esses modelos preservam melhor a consistência temática, muitas vezes alinhando-se mais às traduções humanas de referência do que aos poemas originais. Os efeitos do fine-tuning foram dependentes da arquitetura: mBART se beneficiou de poemas e letras de música, ao contrário do MarianMT e OpenNMT (RNN).
Sala para a defesa: Sala 1B126 - UFU