Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.unis.edu.br/handle/prefix/2727
metadata.dc.type: Trabalho de Conclusão de Curso
Título : ENGENHARIA DE PROMPT: Uma análise das "alucinações" em Inteligências Artificiais Generativas
Otros títulos : William Jeferson Luis da Silva
metadata.dc.creator: Silva, William Jeferson Luis da
metadata.dc.contributor.advisor1: Frogeri, Rodrigo Franklin
metadata.dc.description.resumo: Tem sido notável nos últimos anos a evolução da Inteligência Artificial Generativa (IAG) e suas avançadas técnicas de modelos de linguagens, responsáveis por apresentar um profundo aprendizado e permitindo que máquinas se aproximem cada vez mais da capacidade cognitiva de criação e comunicação da pessoa humana. No centro dessa revolução, encontram-se estruturas que analisam um enorme volume de dados e realizam centenas de milhões de cálculos matemáticos que impedem uma compreensão clara da lógica aplicada nas IAGs. Devido a essa complexidade, muitas vezes, essas ferramentas são passíveis de “alucinações” - apresentam respostas fora de contexto ou afirmações irreais. Destarte, o objetivo deste foi analisar a "alucinação" nos principais modelos de linguagem (ex. ChatGPT 4o, Gemini 1.5, Copilot e Perplexity) disponíveis gratuitamente ao público em geral. Metodologicamente, o estudo se classifica como de abordagem qualitativa e lógica indutiva. Realizou-se análises comparativas entre quatro modelos de linguagens (ChatGPT 4o, Gemini 1.5, Copilot e Perplexity) com prompts passíveis de causar “alucinações”. As nossas análises evidenciam características distintas das principais IAGs de mercado ((ChatGPT 4o, Gemini 1.5, Copilot e Perplexity). Acredita-se que um uso combinado dessas IAGs pode levar os usuários a resultados mais satisfatórios do que se fosse utilizada apenas uma delas.
Resumen : In recent years, the evolution of Generative Artificial Intelligence (GAI) and its advanced language model techniques has been remarkable. These advancements enable deep learning capabilities, allowing machines to increasingly approximate human cognitive abilities in creation and communication. At the heart of this revolution are structures that analyze vast volumes of data and perform hundreds of millions of mathematical calculations, obscuring a clear understanding of the logic applied in GAIs. Due to this complexity, these tools often produce "hallucinations"—responses that are out of context or contain unrealistic statements. This study aims to analyze "hallucinations" in the leading language models (e.g., ChatGPT 4.0, Gemini 1.5, Copilot, and Perplexity) available for free to the general public. Methodologically, the study is qualitative with an inductive logic approach. Comparative analyses were conducted among four language models (ChatGPT 4.0, Gemini 1.5, Copilot, and Perplexity) using prompts likely to induce "hallucinations". Our analyses highlight the distinct characteristics of the leading GAIs on the market. We believe that the combined use of these GAIs can lead users to more satisfactory results than using only one.
Palabras clave : Alucinação
Modelos de Linguagem de Grande Escala
Inteligência Artificial
Copilot
Prompt
Gemini
ChatGPT
Perplexity
metadata.dc.subject.cnpq: Ciências Sociais Aplicadas
metadata.dc.language: por
metadata.dc.publisher.country: Brasil
Editorial : Fundação de Ensino e Pesquisa do Sul de Minas
metadata.dc.publisher.initials: FEPESMIG
metadata.dc.publisher.department: Centro Universitário
metadata.dc.rights: Acesso Aberto
URI : http://repositorio.unis.edu.br/handle/prefix/2727
Fecha de publicación : 28-jun-2024
Aparece en las colecciones: Sistemas de Informação

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
William Jeferson Luis da Silva.pdf189,76 kBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.