Use este identificador para citar ou linkar para este item: http://repositorio.unis.edu.br/handle/prefix/2727
Tipo: Trabalho de Conclusão de Curso
Título: ENGENHARIA DE PROMPT: Uma análise das "alucinações" em Inteligências Artificiais Generativas
Título(s) alternativo(s): William Jeferson Luis da Silva
Autor(es): Silva, William Jeferson Luis da
Primeiro Orientador: Frogeri, Rodrigo Franklin
Resumo: Tem sido notável nos últimos anos a evolução da Inteligência Artificial Generativa (IAG) e suas avançadas técnicas de modelos de linguagens, responsáveis por apresentar um profundo aprendizado e permitindo que máquinas se aproximem cada vez mais da capacidade cognitiva de criação e comunicação da pessoa humana. No centro dessa revolução, encontram-se estruturas que analisam um enorme volume de dados e realizam centenas de milhões de cálculos matemáticos que impedem uma compreensão clara da lógica aplicada nas IAGs. Devido a essa complexidade, muitas vezes, essas ferramentas são passíveis de “alucinações” - apresentam respostas fora de contexto ou afirmações irreais. Destarte, o objetivo deste foi analisar a "alucinação" nos principais modelos de linguagem (ex. ChatGPT 4o, Gemini 1.5, Copilot e Perplexity) disponíveis gratuitamente ao público em geral. Metodologicamente, o estudo se classifica como de abordagem qualitativa e lógica indutiva. Realizou-se análises comparativas entre quatro modelos de linguagens (ChatGPT 4o, Gemini 1.5, Copilot e Perplexity) com prompts passíveis de causar “alucinações”. As nossas análises evidenciam características distintas das principais IAGs de mercado ((ChatGPT 4o, Gemini 1.5, Copilot e Perplexity). Acredita-se que um uso combinado dessas IAGs pode levar os usuários a resultados mais satisfatórios do que se fosse utilizada apenas uma delas.
Abstract: In recent years, the evolution of Generative Artificial Intelligence (GAI) and its advanced language model techniques has been remarkable. These advancements enable deep learning capabilities, allowing machines to increasingly approximate human cognitive abilities in creation and communication. At the heart of this revolution are structures that analyze vast volumes of data and perform hundreds of millions of mathematical calculations, obscuring a clear understanding of the logic applied in GAIs. Due to this complexity, these tools often produce "hallucinations"—responses that are out of context or contain unrealistic statements. This study aims to analyze "hallucinations" in the leading language models (e.g., ChatGPT 4.0, Gemini 1.5, Copilot, and Perplexity) available for free to the general public. Methodologically, the study is qualitative with an inductive logic approach. Comparative analyses were conducted among four language models (ChatGPT 4.0, Gemini 1.5, Copilot, and Perplexity) using prompts likely to induce "hallucinations". Our analyses highlight the distinct characteristics of the leading GAIs on the market. We believe that the combined use of these GAIs can lead users to more satisfactory results than using only one.
Palavras-chave: Alucinação
Modelos de Linguagem de Grande Escala
Inteligência Artificial
Copilot
Prompt
Gemini
ChatGPT
Perplexity
CNPq: Ciências Sociais Aplicadas
Idioma: por
País: Brasil
Editor: Fundação de Ensino e Pesquisa do Sul de Minas
Sigla da Instituição: FEPESMIG
metadata.dc.publisher.department: Centro Universitário
Tipo de Acesso: Acesso Aberto
URI: http://repositorio.unis.edu.br/handle/prefix/2727
Data do documento: 28-Jun-2024
Aparece nas coleções:Sistemas de Informação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
William Jeferson Luis da Silva.pdf189,76 kBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.