Use este identificador para citar ou linkar para este item: http://repositorio.unis.edu.br/handle/prefix/2727
Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisor1Frogeri, Rodrigo Franklin-
dc.creatorSilva, William Jeferson Luis da-
dc.date.accessioned2024-11-11T11:14:40Z-
dc.date.available2024-11-11-
dc.date.available2024-11-11T11:14:40Z-
dc.date.issued2024-06-28-
dc.identifier.urihttp://repositorio.unis.edu.br/handle/prefix/2727-
dc.description.abstractIn recent years, the evolution of Generative Artificial Intelligence (GAI) and its advanced language model techniques has been remarkable. These advancements enable deep learning capabilities, allowing machines to increasingly approximate human cognitive abilities in creation and communication. At the heart of this revolution are structures that analyze vast volumes of data and perform hundreds of millions of mathematical calculations, obscuring a clear understanding of the logic applied in GAIs. Due to this complexity, these tools often produce "hallucinations"—responses that are out of context or contain unrealistic statements. This study aims to analyze "hallucinations" in the leading language models (e.g., ChatGPT 4.0, Gemini 1.5, Copilot, and Perplexity) available for free to the general public. Methodologically, the study is qualitative with an inductive logic approach. Comparative analyses were conducted among four language models (ChatGPT 4.0, Gemini 1.5, Copilot, and Perplexity) using prompts likely to induce "hallucinations". Our analyses highlight the distinct characteristics of the leading GAIs on the market. We believe that the combined use of these GAIs can lead users to more satisfactory results than using only one.pt_BR
dc.description.resumoTem sido notável nos últimos anos a evolução da Inteligência Artificial Generativa (IAG) e suas avançadas técnicas de modelos de linguagens, responsáveis por apresentar um profundo aprendizado e permitindo que máquinas se aproximem cada vez mais da capacidade cognitiva de criação e comunicação da pessoa humana. No centro dessa revolução, encontram-se estruturas que analisam um enorme volume de dados e realizam centenas de milhões de cálculos matemáticos que impedem uma compreensão clara da lógica aplicada nas IAGs. Devido a essa complexidade, muitas vezes, essas ferramentas são passíveis de “alucinações” - apresentam respostas fora de contexto ou afirmações irreais. Destarte, o objetivo deste foi analisar a "alucinação" nos principais modelos de linguagem (ex. ChatGPT 4o, Gemini 1.5, Copilot e Perplexity) disponíveis gratuitamente ao público em geral. Metodologicamente, o estudo se classifica como de abordagem qualitativa e lógica indutiva. Realizou-se análises comparativas entre quatro modelos de linguagens (ChatGPT 4o, Gemini 1.5, Copilot e Perplexity) com prompts passíveis de causar “alucinações”. As nossas análises evidenciam características distintas das principais IAGs de mercado ((ChatGPT 4o, Gemini 1.5, Copilot e Perplexity). Acredita-se que um uso combinado dessas IAGs pode levar os usuários a resultados mais satisfatórios do que se fosse utilizada apenas uma delas.pt_BR
dc.description.provenanceSubmitted by Edna Nascimento (edina.nascimento@unis.edu.br) on 2024-11-11T11:14:40Z No. of bitstreams: 1 William Jeferson Luis da Silva.pdf: 194318 bytes, checksum: ae51686ef71937e1437458288eef9e5b (MD5)en
dc.description.provenanceMade available in DSpace on 2024-11-11T11:14:40Z (GMT). No. of bitstreams: 1 William Jeferson Luis da Silva.pdf: 194318 bytes, checksum: ae51686ef71937e1437458288eef9e5b (MD5) Previous issue date: 2024-06-28en
dc.languageporpt_BR
dc.publisherFundação de Ensino e Pesquisa do Sul de Minaspt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentCentro Universitáriopt_BR
dc.publisher.initialsFEPESMIGpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectAlucinaçãopt_BR
dc.subjectModelos de Linguagem de Grande Escalapt_BR
dc.subjectInteligência Artificialpt_BR
dc.subjectCopilotpt_BR
dc.subjectPromptpt_BR
dc.subjectGeminipt_BR
dc.subjectChatGPTpt_BR
dc.subjectPerplexitypt_BR
dc.subject.cnpqCiências Sociais Aplicadaspt_BR
dc.titleENGENHARIA DE PROMPT: Uma análise das "alucinações" em Inteligências Artificiais Generativaspt_BR
dc.title.alternativeWilliam Jeferson Luis da Silvapt_BR
dc.typeTrabalho de Conclusão de Cursopt_BR
Aparece nas coleções:Sistemas de Informação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
William Jeferson Luis da Silva.pdf189,76 kBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.