Please use this identifier to cite or link to this item:
http://repositorio.unis.edu.br/handle/prefix/2727
metadata.dc.type: | Trabalho de Conclusão de Curso |
Title: | ENGENHARIA DE PROMPT: Uma análise das "alucinações" em Inteligências Artificiais Generativas |
Other Titles: | William Jeferson Luis da Silva |
metadata.dc.creator: | Silva, William Jeferson Luis da |
metadata.dc.contributor.advisor1: | Frogeri, Rodrigo Franklin |
metadata.dc.description.resumo: | Tem sido notável nos últimos anos a evolução da Inteligência Artificial Generativa (IAG) e suas avançadas técnicas de modelos de linguagens, responsáveis por apresentar um profundo aprendizado e permitindo que máquinas se aproximem cada vez mais da capacidade cognitiva de criação e comunicação da pessoa humana. No centro dessa revolução, encontram-se estruturas que analisam um enorme volume de dados e realizam centenas de milhões de cálculos matemáticos que impedem uma compreensão clara da lógica aplicada nas IAGs. Devido a essa complexidade, muitas vezes, essas ferramentas são passíveis de “alucinações” - apresentam respostas fora de contexto ou afirmações irreais. Destarte, o objetivo deste foi analisar a "alucinação" nos principais modelos de linguagem (ex. ChatGPT 4o, Gemini 1.5, Copilot e Perplexity) disponíveis gratuitamente ao público em geral. Metodologicamente, o estudo se classifica como de abordagem qualitativa e lógica indutiva. Realizou-se análises comparativas entre quatro modelos de linguagens (ChatGPT 4o, Gemini 1.5, Copilot e Perplexity) com prompts passíveis de causar “alucinações”. As nossas análises evidenciam características distintas das principais IAGs de mercado ((ChatGPT 4o, Gemini 1.5, Copilot e Perplexity). Acredita-se que um uso combinado dessas IAGs pode levar os usuários a resultados mais satisfatórios do que se fosse utilizada apenas uma delas. |
Abstract: | In recent years, the evolution of Generative Artificial Intelligence (GAI) and its advanced language model techniques has been remarkable. These advancements enable deep learning capabilities, allowing machines to increasingly approximate human cognitive abilities in creation and communication. At the heart of this revolution are structures that analyze vast volumes of data and perform hundreds of millions of mathematical calculations, obscuring a clear understanding of the logic applied in GAIs. Due to this complexity, these tools often produce "hallucinations"—responses that are out of context or contain unrealistic statements. This study aims to analyze "hallucinations" in the leading language models (e.g., ChatGPT 4.0, Gemini 1.5, Copilot, and Perplexity) available for free to the general public. Methodologically, the study is qualitative with an inductive logic approach. Comparative analyses were conducted among four language models (ChatGPT 4.0, Gemini 1.5, Copilot, and Perplexity) using prompts likely to induce "hallucinations". Our analyses highlight the distinct characteristics of the leading GAIs on the market. We believe that the combined use of these GAIs can lead users to more satisfactory results than using only one. |
Keywords: | Alucinação Modelos de Linguagem de Grande Escala Inteligência Artificial Copilot Prompt Gemini ChatGPT Perplexity |
metadata.dc.subject.cnpq: | Ciências Sociais Aplicadas |
metadata.dc.language: | por |
metadata.dc.publisher.country: | Brasil |
Publisher: | Fundação de Ensino e Pesquisa do Sul de Minas |
metadata.dc.publisher.initials: | FEPESMIG |
metadata.dc.publisher.department: | Centro Universitário |
metadata.dc.rights: | Acesso Aberto |
URI: | http://repositorio.unis.edu.br/handle/prefix/2727 |
Issue Date: | 28-Jun-2024 |
Appears in Collections: | Sistemas de Informação |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
William Jeferson Luis da Silva.pdf | 189,76 kB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.