Arquivo 1: Introdução a engenharia de prompts pela DIO
Keywords
Arquitetura transformer; Tokens; Embedding; Redes neurais; Transformadores; Probabilidades
Processamento da linguagem
A maioria dos modelos utiliza a arquitetura transformer para analisar o texto fornecido e destacar partes dos conteúdo em tokens. Esses tokens são transformados em Embedding, e após passarem por redes neurais e transformadores, realizam o entendimento do foi escrito baseado no contexto e no treinamento recebido.
Janela de contexto
Os modelos não possuem persistência entre interações, porém, dentro de uma mesma interação, ele consegue armazenar um número limitado de tokens. Quando o limite é alcançado, os tokens antigos são descartados para dar lugar aos mais novos.
As janelas limitam a quantidade de tokens que o modelo pode processar simultaneamente.
Memória e instruções personalizadas são funcionalidades presentes em alguns modelos.
Elementos de um bom prompt
Instrução inicial: o que queremos; Contexto: dados necessários para uma resposta mais precisa; Exemplo: referência de resposta correta; Dados de entrada: detalhamento do contexto; Formato de saída: parágrafo, bullets, json, etc.
Cuidado na aplicação de prompts
As instruções influenciam na qualidade das respostas.
Prompts enviesados: erros nos padrões aprendidos no treinamento ou prompts que induzem respostas; Alucinações: pressuposições erradas; Considerações éticas; Privacidade e segurança: não compartilhar dados pessoais ou confidenciais.
Anonimizar os dados
Explorar
Técnicas de EP e parâmetros de inferência
Conhecendo o prompt
é um instrução fornecida ao modelo de IA para um determinado fim
Chat temporário
Cada modelo é treinado em linguagens diferentes. então ,as vezes, o retorno em inglês é mais assertivo.
Precisa haver cuidado com o retorno, revise!
LLMs (Large Language Model): IA com treinamento humanizado
Componentes de um prompt
Usar markdown e organizar o texto.
Instruções
É o componente mais utilizado e mais simples. É a tarefa que precisa ser feita.
Exemplos (Flew-shot Learning)
- Zero-shot: o modelo usa a base do treinamento dele;
- Flew-shot: quando o modelo aprende como realizar a tarefa com alguns exemplos passados no prompt.
Contexto ou configuração
Define o papel do modelo e o cenário no qual ele deve atuar.
Restrições ou limitações
Termos de extensão ou escopo.
Conteúdo principal
Dados de entrada que devem ser processados para a realização da tarefa.
Indicações
Adequações para o resultado final, como: língua, tipo de texto, etc.
Formato de saída
Formato, tom e estilo: JSON, markdown, para crianças, divertivo.
Conteúdo de suporte
Biblioteca externa para consulta.
Arquivo 2: Engenharia de Prompt: O Guia Definitivo por Bruno Picinini
Fundamentos
A ciência empírica de planejar, criar e testar prompts para gerar melhores respostas em modelos de processamento de linguagem.
Regra de ouro: que instruções você daria para alguém fazer?
Comece do simples para o complexo, e do caro para o barato.
Metodologia PROMPT
Persona: direcionar; Roteiro: qual o resultado final; Objetivo: objetivo do resultado final; Modelo: formato de saída; Panorama: detalhamento e exemplos; Transformar: melhoria e feedbacks.
Não precisa seguir essa ordem
Processo
Prompts robusto para maior processamento e raciocínio
- Defina a tarefa e os critérios de sucesso:
- Desempenho e precisão: qual será o modelo de IA?
- Latẽncia: precisar ser rápido ou mais preciso?
- Preço: orçamento?
- Casos de teste: Padrões e Edge cases
- Testar contra exemplos
- Melhoria baseada em interação: não espere ter o resultado final na primeira interação
- Refine o prompt
- Utilizar
Técnicas
Markdown
Utilize markdown para estruturar o prompt, porque os modelos são treinados baseados em textos com seções e divisões.
https://www.markdownguide.org/cheat-sheet
Tags XML
Servem para organizar e referenciar porções de texto
Criação: `<Item>Conteúdo</Item>`
Uso: `Utilize <Item></Item> como base…`
Quando tiver um documento muito longe, inclua-o antes das instruções.
Prompt do sistema
Melhorar a interpretação do prompt
Reduzir significativa o nível de alucinação
Melhorar a qualidade das respostas
Nem sempre se usa
Zero shot
Tarefa sem referencia ou exemplos
Estímulo de prompt direcional
Excelente para interpretar conteúdos longos.
Consiste em fornecer dicas para enviesar a resposta, como o caso do contexto ou detalhamento (no arquivo 1), como esclarecido na metodologia PROMPT, em panorama.
Few shot
Dar exemplos positivos
Cadeia de pensamento (CoT)
Como o modelo deve pensar, como o pensamento deve ser estruturado, quais os passos o modelo precisa seguir.
Ideal para problemas que exijam maior nível de raciocínio lógico
Usar tags XML para separar pensamento e resposta
Cadeia de pensamento constrativa
Adicionar no prompt o modelo da explicação errada
Cadeia de pensamento com zero shot
Pensar passo a passo
A escolha do modelo de IA vai trazer diferentes respostas
técnicas avançadas
A maioria é pouco usual
Consistência própria
Fornecer pelo menos 3 cadeias de pensamentos diferentes para que o modelo utilize a probabilidade para fornecer um resposta mais precisa.
Árvore de pensamento (ToT)
Dentro das cadeias de pensamento fornecido, fornecer também as implicações positivas e negativas, para que o modelo julgue qual a cadeia de pensamento é melhor.
Também dentro dessa técnica é possível solicitar que o modelo se retroalimente ao simular um processo de cadeia de pensamento, por exemplo entre 3 diferentes personas. Desta forma, haveria a criação, o julgamento e feedback feitos pela própria IA.
Esqueleto de pensamento (SoT)
Estruturar a instrução em etapas para dar enfase e contexto nas diferentes etapas da criação de uma tarefa longa. Dividir para conquistar.
Geração de conhecimento
Treinar o modelo antes da tarefa
Prompt maiêtico
Pedir para o modelo justificar a resposta
Geração argumentada de recuperação (RAG)
Fornece-se uma base externa de conhecimento para fornecer melhores respostas
Os dados precisam ser fornecidos em formatos específicos, por exemplo, Q&A.
Linguagem programática responsiva
Usar recursos de programação, como variáveis
React
Usar a razão para questionar as ações, e baseado no julgamento tomar outras ações que passarão por esse mesmo processo
Como evitar alucinações
Customizar para indicar links, informar quando não tiver certeza de algo, basear-se em fatos e realidade e trazer citações
Diminuir a temperatura para ser mais factual
Exemplos: insights
Para bases de conhecimento, procure transformar em JSON
Técnica da gorjeta: não tem comprovação científica, mas é muito vistos em GPTs comerciais. Basicamente, dizer que vai dar uma gorjeta caso a IA se saia bem, ou que vai demiti-la caso se saia mal.