Lázaro V Bonifácio

Profissional de Devops/SRE/Infraestrutura Cloud Brasileiro

Lázaro V Bonifácio

Profissional de Devops/SRE/Infraestrutura Cloud Brasileiro

Engenharia de prompts

Arquivo 1: Introdução a engenharia de prompts pela DIO

Keywords

Arquitetura transformer; Tokens; Embedding; Redes neurais; Transformadores; Probabilidades

Processamento da linguagem

A maioria dos modelos utiliza a arquitetura transformer para analisar o texto fornecido e destacar partes dos conteúdo em tokens. Esses tokens são transformados em Embedding, e após passarem por redes neurais e transformadores, realizam o entendimento do foi escrito baseado no contexto e no treinamento recebido.

Janela de contexto

Os modelos não possuem persistência entre interações, porém, dentro de uma mesma interação, ele consegue armazenar um número limitado de tokens. Quando o limite é alcançado, os tokens antigos são descartados para dar lugar aos mais novos.

As janelas limitam a quantidade de tokens que o modelo pode processar simultaneamente.

Memória e instruções personalizadas são funcionalidades presentes em alguns modelos.

Elementos de um bom prompt

Instrução inicial: o que queremos; Contexto: dados necessários para uma resposta mais precisa; Exemplo: referência de resposta correta; Dados de entrada: detalhamento do contexto; Formato de saída: parágrafo, bullets, json, etc.

Cuidado na aplicação de prompts

As instruções influenciam na qualidade das respostas.

Prompts enviesados: erros nos padrões aprendidos no treinamento ou prompts que induzem respostas; Alucinações: pressuposições erradas; Considerações éticas; Privacidade e segurança: não compartilhar dados pessoais ou confidenciais.

Anonimizar os dados

Explorar

Técnicas de EP e parâmetros de inferência

Conhecendo o prompt

é um instrução fornecida ao modelo de IA para um determinado fim

Chat temporário

Cada modelo é treinado em linguagens diferentes. então ,as vezes, o retorno em inglês é mais assertivo.

Precisa haver cuidado com o retorno, revise!

LLMs (Large Language Model): IA com treinamento humanizado

Componentes de um prompt

Usar markdown e organizar o texto.

Instruções

É o componente mais utilizado e mais simples. É a tarefa que precisa ser feita.

Exemplos (Flew-shot Learning)

  • Zero-shot: o modelo usa a base do treinamento dele;
  • Flew-shot: quando o modelo aprende como realizar a tarefa com alguns exemplos passados no prompt.

Contexto ou configuração

Define o papel do modelo e o cenário no qual ele deve atuar.

Restrições ou limitações

Termos de extensão ou escopo.

Conteúdo principal

Dados de entrada que devem ser processados para a realização da tarefa.

Indicações

Adequações para o resultado final, como: língua, tipo de texto, etc.

Formato de saída

Formato, tom e estilo: JSON, markdown, para crianças, divertivo.

Conteúdo de suporte

Biblioteca externa para consulta.

Arquivo 2: Engenharia de Prompt: O Guia Definitivo por Bruno Picinini

Fundamentos

A ciência empírica de planejar, criar e testar prompts para gerar melhores respostas em modelos de processamento de linguagem.

Regra de ouro: que instruções você daria para alguém fazer?

Comece do simples para o complexo, e do caro para o barato.

Metodologia PROMPT

Persona: direcionar; Roteiro: qual o resultado final; Objetivo: objetivo do resultado final; Modelo: formato de saída; Panorama: detalhamento e exemplos; Transformar: melhoria e feedbacks.

Não precisa seguir essa ordem

Processo

Prompts robusto para maior processamento e raciocínio

  1. Defina a tarefa e os critérios de sucesso:
    • Desempenho e precisão: qual será o modelo de IA?
    • Latẽncia: precisar ser rápido ou mais preciso?
    • Preço: orçamento?
  2. Casos de teste: Padrões e Edge cases
  3. Testar contra exemplos
  4. Melhoria baseada em interação: não espere ter o resultado final na primeira interação
  5. Refine o prompt
  6. Utilizar

Técnicas

Markdown

Utilize markdown para estruturar o prompt, porque os modelos são treinados baseados em textos com seções e divisões.

https://www.markdownguide.org/cheat-sheet

Tags XML

Servem para organizar e referenciar porções de texto

Criação: `<Item>Conteúdo</Item>`

Uso: `Utilize <Item></Item> como base…`

Quando tiver um documento muito longe, inclua-o antes das instruções.

Prompt do sistema

Melhorar a interpretação do prompt

Reduzir significativa o nível de alucinação

Melhorar a qualidade das respostas

Nem sempre se usa

Zero shot

Tarefa sem referencia ou exemplos

Estímulo de prompt direcional

Excelente para interpretar conteúdos longos.

Consiste em fornecer dicas para enviesar a resposta, como o caso do contexto ou detalhamento (no arquivo 1), como esclarecido na metodologia PROMPT, em panorama.

Few shot

Dar exemplos positivos

Cadeia de pensamento (CoT)

Como o modelo deve pensar, como o pensamento deve ser estruturado, quais os passos o modelo precisa seguir.

Ideal para problemas que exijam maior nível de raciocínio lógico

Usar tags XML para separar pensamento e resposta

Cadeia de pensamento constrativa

Adicionar no prompt o modelo da explicação errada

Cadeia de pensamento com zero shot

Pensar passo a passo

A escolha do modelo de IA vai trazer diferentes respostas

técnicas avançadas

A maioria é pouco usual

Consistência própria

Fornecer pelo menos 3 cadeias de pensamentos diferentes para que o modelo utilize a probabilidade para fornecer um resposta mais precisa.

Árvore de pensamento (ToT)

Dentro das cadeias de pensamento fornecido, fornecer também as implicações positivas e negativas, para que o modelo julgue qual a cadeia de pensamento é melhor.

Também dentro dessa técnica é possível solicitar que o modelo se retroalimente ao simular um processo de cadeia de pensamento, por exemplo entre 3 diferentes personas. Desta forma, haveria a criação, o julgamento e feedback feitos pela própria IA.

Esqueleto de pensamento (SoT)

Estruturar a instrução em etapas para dar enfase e contexto nas diferentes etapas da criação de uma tarefa longa. Dividir para conquistar.

Geração de conhecimento

Treinar o modelo antes da tarefa

Prompt maiêtico

Pedir para o modelo justificar a resposta

Geração argumentada de recuperação (RAG)

Fornece-se uma base externa de conhecimento para fornecer melhores respostas

Os dados precisam ser fornecidos em formatos específicos, por exemplo, Q&A.

Linguagem programática responsiva

Usar recursos de programação, como variáveis

React

Usar a razão para questionar as ações, e baseado no julgamento tomar outras ações que passarão por esse mesmo processo

Como evitar alucinações

Customizar para indicar links, informar quando não tiver certeza de algo, basear-se em fatos e realidade e trazer citações

Diminuir a temperatura para ser mais factual

Exemplos: insights

Para bases de conhecimento, procure transformar em JSON

Técnica da gorjeta: não tem comprovação científica, mas é muito vistos em GPTs comerciais. Basicamente, dizer que vai dar uma gorjeta caso a IA se saia bem, ou que vai demiti-la caso se saia mal.

Engenharia de prompts

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para o topo