Princípios Básicos de Ia e Chat-Gpt

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 41

O que é IA?

Afinal o que é essa tal de Inteligência Artificial (IA)?


Ela é aquele ramo da ciência da computação que tá sempre em busca de criar sistemas e
máquinas tão espertos quanto a gente, capazes de aprender, reconhecer padrões, resolver
quebra-cabeças, perceber o mundo à sua volta e até bater um papo usando linguagem
natural.

A grande diferença da IA é essa ideia de criar máquinas que, mais do que só seguir
instruções, aprendem com as experiências, se adaptam a novas situações e tomam
decisões sozinhas, tipo como a gente faz.

Um pulo rápido pela história da IA


Pensar em criar máquinas inteligentes não é novidade de hoje, não. Essa ideia já tá na roda
desde os tempos das lendas antigas, mas foi nos anos 50 que a coisa começou a pegar
forma de verdade, graças ao gênio Alan Turing e sua galera. Em 1956, a expressão
"Inteligência Artificial" virou oficial numa conferência cheia de cérebros brilhantes discutindo
como tornar essa ficção uma realidade.
Desde então, a IA teve seus altos e baixos, tipo uma montanha-russa, com épocas de muito
hype e outras de desilusão. Mas, olha, nos últimos tempos, com a tecnologia de
computadores bombando, dados pra dar e vender e algoritmos que parecem mágica, a IA tá
vivendo seu momento de estrela do rock.

E essa onda de IA generativa?


IA generativa é aquele spin-off super legal da IA, focada em criar coisas novas, seja uma
imagem, um vídeo, um texto ou até uma trilha sonora, tudo isso baseado em um monte de
dados. Usando um tipo de aprendizado de máquina com redes neurais que mais parece
coisa de outro mundo, essas IAs aprendem o estilo, a vibe dos dados e começam a produzir
conteúdo novo que, às vezes, a gente nem acredita que foi máquina que fez.

Por que chatbots tipo o ChatGPT viraram celebridades?


ChatGPT e seus amigos se tornaram os queridinhos da internet por serem aqueles amigos
virtuais super inteligentes e disponíveis 24/7, prontos pra conversar sobre qualquer coisa.
Desenvolvidos pela OpenAI, eles são como enciclopédias ambulantes, mas com a
habilidade de entender o que a gente fala e responder de um jeito que parece que tem uma
pessoa do outro lado.

A facilidade de dar um alô pro ChatGPT e a capacidade de ele se virar nos 30 em qualquer
assunto são as chaves do sucesso. Desde tirar dúvidas simples até ajudar a escrever um
livro ou desenrolar um problema complicado, ele tá lá.

Mas, claro, com grande poder vem grandes responsabilidades, e toda essa fama do
ChatGPT também abriu o debate sobre ética, privacidade e o impacto dessas tecnologias
na sociedade.

Conclusão:
Entrar no mundo da Inteligência Artificial é tipo começar a assistir a uma série nova que
promete revolucionar tudo. Desde os primórdios na década de 1950 até os avanços de tirar
o fôlego em IA generativa e chatbots super populares, a IA mostrou que não tá de
brincadeira quando o assunto é simular a inteligência humana.

E conforme essa tecnologia avança, é mega importante a gente ficar de olho não só nos
benefícios, mas também nas questões éticas e sociais que vêm no pacote. Ficar por dentro
e entender sobre IA é crucial pra garantir que a gente use essa força incrível de um jeito
consciente e pra benefício de todos.
Fundamentos de PROMPT
Engenharia de Prompts (A Arte de Criar Prompts)

Dominar a Engenharia de prompts é como ser um maestro de orquestra para os modelos de


linguagem (LLMs), compondo peças que permitem que esses gigantes digitais dancem
conforme a nossa música. Essa disciplina, ainda novinha em folha, é sobre criar e aprimorar
esses comandos especiais para que possamos extrair o melhor desses modelos em um
leque vasto de aplicações e pesquisas.

Como se fosse um maestro, o engenheiro de prompts entende profundamente as


habilidades e limites desses LMs, usando essa sabedoria para aperfeiçoar a performance
deles em tarefas que vão do básico, como responder perguntas, até o complexo, como
raciocínio aritmético. Os desenvolvedores, nesse concerto, usam a engenharia de prompts
para criar técnicas de comando mais robustas e eficazes, fazendo a ponte entre os LMs e
outras ferramentas.

Mas não se engane, engenharia de prompts não é só sobre escrever esses comandos.

É uma arte que envolve uma gama variada de habilidades e técnicas para interagir e
desenvolver junto com os LLMs. É uma habilidade crucial para quem quer construir e
entender as capacidades desses modelos gigantes de linguagem.

Usando essa arte, é possível até melhorar a segurança dos LLMs e inventar novas
funcionalidades, como turbinar os LLMs com conhecimento específico de domínios e
ferramentas externas.

O que são Large Language Models (LLMs)?


Large Language Models, ou Grandes Modelos de Linguagem, são um pouco como aqueles
DJs habilidosos em festas que conseguem pegar uma batida e criar uma música inteira a
partir dela, peça por peça, até que a pista esteja cheia. Esses modelos, no coração, pegam
sua entrada - digamos, um verso de uma música ou uma linha de uma história - e então,
como um DJ adicionando camadas à música, eles geram a próxima palavra. Eles pegam
essa palavra, misturam-na com o que você deu, e continuam essa batida, gerando a
próxima palavra, até que tenham construído uma resposta completa, palavra por palavra.

Essencialmente, eles estão sempre em busca da próxima grande batida, ou neste caso, a
próxima palavra que faz sentido na sequência. Imagine que você comece com "Maria tinha
um" e pause. Se você conhece o ritmo da rima infantil, espera que a próxima batida seja
"pequeno cordeiro". O modelo faz exatamente isso: pega o ritmo do que você começou e
prediz a próxima parte da música.
Isso é incrível, não é? Mas, como todo bom DJ, esses modelos foram treinados para
conhecer uma vasta gama de músicas (ou textos, neste caso). Eles foram alimentados com
uma grande quantidade de textos da internet, aprendendo padrões de linguagem humana, o
que permite que eles predigam a próxima palavra com base no contexto fornecido.

Contudo, assim como cada festa é única, cada prompt que você dá a esses modelos pode
levar a resultados ligeiramente diferentes. Às vezes, você pede "Rosas são vermelhas",
esperando o clássico "Violetas são azuis", mas a resposta pode variar. Isso adiciona um
toque de imprevisibilidade e criatividade ao processo, garantindo que não estamos apenas
girando os mesmos discos repetidamente.

Por fim, saber que esses modelos não são omniscientes é crucial. Eles são como DJs que
conhecem muitas músicas até certo ponto no tempo. Para questões mais recentes ou
informações que não estavam disponíveis até sua última atualização, você precisa trazer os
discos (ou neste caso, a informação) para a festa. Isso significa incorporar novos dados ou
contextos em seus prompts para ajudar a guiar o modelo na direção certa.

Assim, enquanto mergulhamos mais fundo na arte da engenharia de prompts, pense nisso
como aprender a ser um grande DJ para os Grandes Modelos de Linguagem, sabendo
quando empurrá-los para uma batida clássica ou quando introduzir algo totalmente novo
para manter a festa interessante.

Quais as principais LLMs?


As principais LLMs (Large Language Models, ou Modelos de Linguagem de Grande Escala)
têm evoluído rapidamente, oferecendo uma variedade de capacidades em processamento
de linguagem natural, geração de texto, e outras formas de inteligência artificial. Aqui estão
algumas das LLMs mais influentes e conhecidas até o momento:

GPT-4 da OpenAI
O modelo GPT-3.5 foi uma grande inovação em termos de capacidade de gerar texto
naturalista e responder a perguntas em linguagem natural. GPT-4, a sua sucessão, ampliou
ainda mais essas capacidades, oferecendo melhorias significativas em termos de
compreensão e geração de texto, além de ser capaz de lidar com instruções mais
complexas e gerar saídas mais precisas.

Conclusão
Cada um desses modelos reflete os avanços contínuos em inteligência artificial e
processamento de linguagem natural, demonstrando capacidades únicas que podem ser
aplicadas em uma ampla gama de contextos, desde a geração de texto criativo e técnico

♾️
até a melhoria da interação e do engajamento do usuário. O desenvolvimento desses
modelos abre novas possibilidades para aplicações de IA para nós Lendários.
O que é um prompt?

O que é um prompt?
Um prompt, no contexto de modelos de linguagem como o ChatGPT, é o texto fornecido ao
modelo para provocar uma resposta relevante. Geralmente, um prompt assume a forma de
uma pergunta ou instrução que orienta o modelo a gerar uma saída específica.

Por que os prompts são importantes?


Os prompts desempenham um papel crucial na interação com modelos de linguagem, pois
determinam a qualidade e a relevância das respostas geradas.

Um prompt bem elaborado pode direcionar o modelo para fornecer informações precisas,
resolver problemas complexos ou até mesmo criar conteúdo criativo.

Compreender e dominar a arte de elaborar prompts eficazes é uma habilidade valiosa para
aproveitar ao máximo o potencial desses poderosos sistemas de IA.

Tipos de prompts:
1. Perguntas diretas: Prompts na forma de perguntas simples e diretas, como "Qual é a
capital da França?".

2. Instruções: Prompts que fornecem instruções claras para uma tarefa específica, como
"Escreva um artigo sobre os benefícios da meditação".

3. Contexto: Prompts que fornecem informações contextuais para orientar a resposta do


modelo, como "Considerando o cenário econômico atual, quais são as perspectivas para o
mercado imobiliário nos próximos anos?".

4. Prompts criativos: Prompts que incentivam o modelo a gerar conteúdo criativo, como
"Escreva um poema sobre a beleza da natureza".

Técnicas de Prompts:
1. Zero-shot Prompting (Prompt de Tiro Zero): Esta técnica envolve fornecer um prompt ao
modelo sem qualquer exemplo ou contexto adicional, esperando que ele gere uma resposta
relevante com base apenas no prompt.
2. Few-shot Prompting (Prompt de Poucos Tiros): Nesta abordagem, alguns exemplos
(geralmente de 1 a 5) são fornecidos junto com o prompt para dar ao modelo uma ideia do
tipo de resposta esperada.

3. Chain-of-Thought Prompting (Prompt de Cadeia de Pensamento): Esta técnica incentiva


o modelo a explicar seu raciocínio passo a passo, gerando uma cadeia de pensamentos
que levam à resposta final.

4. Self-Consistency (Autoconsistência): Esta abordagem envolve gerar múltiplas respostas


para o mesmo prompt e, em seguida, selecionar a resposta mais consistente ou que
aparece com mais frequência.

5. Generate Knowledge Prompting (Prompt de Geração de Conhecimento): Nesta técnica, o


modelo é solicitado a gerar conhecimento relevante para o prompt, que pode ser usado
para responder à pergunta ou realizar a tarefa em questão.

6. Prompt Chaining (Encadeamento de Prompts): Esta abordagem envolve dividir uma


tarefa complexa em uma série de subtarefas e fornecer prompts para cada subtarefa, com a
saída de um prompt servindo como entrada para o próximo.

7. Tree of Thoughts (Árvore de Pensamentos): Semelhante ao Chain-of-Thought Prompting,


esta técnica incentiva o modelo a explorar múltiplos caminhos de raciocínio em paralelo,
criando uma árvore de pensamentos que leva a diferentes respostas possíveis.

8. Retrieval Augmented Generation (Geração Aumentada por Recuperação): Nesta


abordagem, o modelo recupera informações relevantes de uma base de conhecimento
externa e as usa para gerar uma resposta mais informativa e contextualmente relevante
para o prompt.

Essas técnicas de prompt visam aprimorar o desempenho e a capacidade dos modelos de


linguagem em diferentes tarefas, aproveitando abordagens variadas para orientar e
direcionar a geração de respostas.

Mas não se preocupe com elas agora, vamos para algo mais simples.

Dicas para criar prompts eficazes:


1. Seja claro e específico: Formule prompts que sejam fáceis de entender e que
comuniquem claramente a tarefa ou pergunta.

2. Forneça contexto suficiente: Inclua informações relevantes no prompt para ajudar o


modelo a gerar uma resposta mais precisa e informativa.

3. Use linguagem natural: Escreva prompts usando linguagem simples e conversacional,


como se estivesse falando com outra pessoa.
4. Experimente diferentes abordagens: Teste variações de prompts para a mesma tarefa e
observe como as respostas diferem. Isso pode ajudar a identificar a melhor maneira de
interagir com o modelo.

Mais dicas como essa na aula 10 mandamentos da Engenharia de Prompts.

Exemplo de prompt e resposta:


Prompt: "Por que o céu é azul?"

Resposta: "O céu parece azul para nós devido à forma como as moléculas no ar espalham
a luz do sol. A luz de comprimento de onda mais curto (azul) se espalha mais facilmente do
que a luz de comprimento de onda mais longo (como vermelhos e amarelos), então quando
olhamos para o céu, o que vemos é toda a luz azul espalhada. Isso é conhecido como
espalhamento de Rayleigh. A cor do céu varia com base em condições como o ângulo do
sol e a quantidade de poeira/água no ar, mas durante o dia com um céu claro, o
comprimento de onda azul da luz é o principal responsável pela cor que percebemos."

Os prompts são uma parte essencial da interação com modelos de linguagem como o
ChatGPT. Ao criar prompts claros, específicos e contextualmente relevantes, os usuários
podem obter respostas mais precisas e úteis dos modelos.

Elementos de um prompt

Imagine que a engenharia de prompts seja como montar um quebra-cabeça. Cada peça
representa um elemento crucial para formar a imagem completa. Nesse cenário:

- Instrução: é a imagem que você deseja formar, o objetivo final, como "Classifique o texto
em neutro, negativo ou positivo". É o guia que você segue, a capa da caixa do
quebra-cabeça, mostrando o que você está tentando construir.

- Contexto: são as dicas adicionais ou peças de borda que ajudam a orientar onde as outras
peças devem ir, facilitando a montagem. São as pistas que contextualizam sua tarefa,
ajudando a definir o quadro geral.

- Dados de Entrada: é a peça específica que você está tentando encaixar agora, como
"Acho que a comida estava ok". É o ponto de partida, a peça que você segura na mão,
procurando seu lugar exato no quebra-cabeça.

- Indicador de Saída: é a forma ou o espaço que você espera preencher com sua peça,
como "Sentimento:". É saber se a peça vai no canto, no meio ou nas bordas, definindo o
tipo de encaixe que você está buscando.

Assim como na montagem de um quebra-cabeça, nem todas as peças são necessárias


para começar, mas cada uma é essencial para completar a imagem. A arte de engenharia
de prompts, portanto, envolve saber qual peça usar, onde e como ela se encaixa no grande
esquema das coisas, montando peça por peça até revelar a imagem desejada.
E é isso que quero te ensinar nas próximas aulas.

Formatação e estrutura de Prompts

“Falar é fácil, até você ter que conversar com um robô”.


Engenharia de prompt. Pode soar como a nova moda dos cursos de tecnologia, mas é mais
antigo do que você pensa e tão cotidiano quanto pedir uma pizza pelo app. Só que, nesse
caso, você está falando com um robô que, se não for bem instruído, vai achar que você
quer pizza no café da manhã.

Vamos ser realistas: todo mundo já se estressou com uma assistente virtual que não
entendeu o que a gente queria. "Ligue para a Mãe", e ela toca Metallica. Não é o que você
esperava, certo?

Agora, imagine que esses pequenos desentendimentos acontecem em escala industrial.


Temos uma receita para o caos? Talvez. Mas com engenharia de prompt, temos um mapa
para a solução.

Vamos pensar em um exemplo clássico. Pesquisadores tentaram usar LLMs para criar
resumos legais de processos. Os primeiros resultados? Um monte de palavras legais
jogadas num liquidificador. Mas com a engenharia de prompt, eles começaram a fazer
perguntas específicas e receber resumos que até um juiz aprovaria.

Então, ao aperfeiçoar a arte do prompt, estamos ensinando as máquinas a jogar no nosso


time, a facilitar nossa vida e não complicar. Quem sabe um dia não precisaremos mais
reexplicar um pedido cinco vezes, certo?

“Engenharia de prompt não é só falar com máquinas, é fazer com que elas falem a nossa
língua”.

Objetivos de aprendizado
Entender a importância da formatação e estrutura para prompts eficientes

Aprender técnicas para tornar seus prompts claros e bem formatados

Praticar reformular prompts exemplo aplicando essas técnicas


Por que a formatação importa?
Quer ver seu prompt ignorado igual um SMS de ex? Então mande aquele textão mal
formatado, com ideias soltas pelo caminho sem nexo ou propósito. Agora, se quer que seu
prompt seja lido, entendido e gerar os resultados esperados, preste atenção na formatação!

Uma boa formatação torna seu prompt objetivo, fácil de entender. Quebras de linha
separam instruções. Marcadores organizam os elementos. Negrito destaca palavras-chave.

Em prompts, formatação ≠ enfeite! Ela guia, esclarece e potencializa a comunicação com a


IA. Imagine tentar entender uma salada de palavras soltas, versus um texto bem
estruturado. Faça o teste você mesmo!

Regras práticas e exemplos

1. Coloque as instruções no início do prompt e use ### ou """ para


separar a instrução e o contexto
Menos eficaz ❌ :
Resuma o texto abaixo como uma lista dos pontos mais importantes.
{entrada de texto aqui}

Melhor ✅ :
Resuma o texto abaixo como uma lista dos pontos mais importantes.
Texto:
~~
{entrada de texto aqui}
~~

2. Seja específico, descritivo e o mais detalhado possível sobre o


contexto, resultado, duração, formato, estilo desejado, etc.
Seja específico sobre o contexto, resultado, duração, formato, estilo, etc.

Menos eficaz ❌
:
Escreva um poema sobre OpenAI.

Melhor ✅ :
Escreva um pequeno poema inspirador sobre OpenAI, com foco no recente lançamento do
produto DALL-E (DALL-E é um modelo de ML de texto para imagem) no estilo de um {poeta
famoso}

3. Articule o formato de saída desejado através de exemplos


Menos eficaz ❌:
Extraia as entidades mencionadas no texto abaixo. Extraia os seguintes 4 tipos de
entidades: nomes de empresas, nomes de pessoas, tópicos e temas específicos.

Texto: {texto}

Melhor ✅:
Extraia as entidades importantes mencionadas no texto abaixo. Primeiro extraia todos os
nomes de empresas, depois extraia todos os nomes de pessoas, depois extraia tópicos
específicos que se ajustem ao conteúdo e, finalmente, extraia temas gerais abrangentes

Formato desejado:
Nomes de empresas: <lista_separada_por_vírgula_de_nomes_de_empresas>
Nomes de pessoas: -||-
Tópicos específicos: -||-
Geral temas: -||-

Texto: {texto}

4. Prompts zero-shot
✅ Zero-shot:
Extraia palavras-chave do texto abaixo.

Texto: {texto}

Palavras-chave:

5. Reduza descrições “fofas” e imprecisas


Menos eficaz ❌
:
A descrição deste produto deve ser bastante curta, apenas algumas frases e não muito
mais.

Melhor ✅
:
Use um parágrafo de 3 a 5 frases para descrever este produto.

6. Em vez de apenas dizer o que não fazer, diga o que fazer


Menos eficaz :❌
A seguir está uma conversa entre um Agente e um Cliente. NÃO PEÇA NOME DE
USUÁRIO OU SENHA. NÃO REPITA.

Cliente: Não consigo fazer login na minha conta.


Agente:
Melhor ✅ :
A seguir está uma conversa entre um Agente e um Cliente. O agente tentará diagnosticar o
problema e sugerir uma solução, evitando fazer perguntas relacionadas às PII. Em vez de
solicitar PII, como nome de usuário ou senha, encaminhe o usuário para o artigo de ajuda
www.samplewebsite.com/help/faq

Cliente: Não consigo fazer login na minha conta.


Agente:

7. Específico para geração de código - Use “palavras iniciais” para


direcionar o modelo em direção a um padrão específico**
Menos eficaz ❌:
# Escreva uma função python simples que # 1. Peça um número em milhas
# 2. Ela converte milhas em quilômetros

Neste exemplo de código abaixo, adicionar “ import ” indica ao modelo que ele deve
começar a escrever em Python. (Da mesma forma, “SELECT” é uma boa dica para o início
de uma instrução SQL.)

Melhor ✅:
# Escreva uma função python simples que # 1. Peça-me um número em milhas
# 2. Ela converte milhas em quilômetros
import

Aplicabilidade Prática
Ao revisar os exemplos acima, cada prompt é um exemplo de zero-shot learning. Os
prompts foram formulados de maneira que o modelo gerasse a saída desejada sem
exemplos anteriores específicos.

5 características dos melhores prompts

Nesta aula, vamos explorar cinco estratégias fundamentais para extrair o máximo de
modelos de IA. Essas técnicas o colocarão à frente de 99% das pessoas em termos de
eficiência e qualidade ao interagir com modelos de linguagem.

Vamos começar analisando um prompt exemplo:


Tópico: INSERIR TÓPICO AQUI

A novidade mantém os leitores lendo. Vem de ideias que tendem a ser: 1)


Contra-intuitivas, 2) Contra-narrativas, 3) Choque e espanto, 4) Articulações elegantes.

Brainstorm de novas ideias para uma postagem sobre o tópico acima. Os objetivos
potenciais deste cargo poderiam ser:
• Abrir os olhos das pessoas, provando que o status quo está errado.
• Compartilhe uma solução para um problema difícil.
• Transforme um tópico complicado em algo acessível.
• Conte uma história cheia de suspense e emoção que transmita uma lição.
• Articule algo em que todos estão pensando, mas ninguém está dizendo. Corte o
barulho.
• Identifique as principais tendências sobre um tópico. Em seguida, use-os para prever o
futuro.
• Contribuir com ideias originais para um campo através de pesquisa e experimentação.

Por quê esse prompt é tão bom?

1. Especificidade, Clareza e Concisão


● Importância da Especificidade: A IA não possui contexto sobre sua identidade,
trabalho ou estilo. Portanto, ser específico é crucial. Ao solicitar ideias, não espere
conteúdo de alto calibre sem direcionamento claro. Por exemplo, se queremos ideias
originais e não meramente genéricas, precisamos instruir a IA com essa
especificidade.

● Clareza e Concisão: Cada frase do prompt deve ser direta e sem ambiguidades para
garantir uma interpretação precisa pela IA.

Então no prompt acima, nós pedimos brainstorm de ideias. Mas não queremos um conteúdo
padrão, chato, nós queremos ideias realmente boas, então ao invés de nós apenas
esperarmos que saia algo bom (o que não vai acontecer, porque a IA é programada pra sair
as ideias de maior probabilidade) precisamos pedir pra ela, precisamos ser específicos.

2. Descrições e Exemplos
● Orientando a IA com Exemplos: Ao pedir um brainstorm de ideias, fornecemos
exemplos do tipo desejado. Isso é essencial, pois toda vez que mandamos alguma
coisa para a IA sem um exemplo, ela primeiro tem que ter uma ideia do que estamos
pensando, criar um exemplo próprio dela e ai assim retornar uma saída baseado no
que ela ACHA que queremos. Então, sempre vamos adicionar exemplos para ter
resultados melhores.
3. Objetivo Específico
● Detalhamento do Objetivo: Ao invés de pedir apenas ideias genéricas, especifique o
formato e o estilo. Por exemplo, a abordagem para uma newsletter é diferente de um
tweet. Sempre comunique claramente o objetivo específico para a IA.

4. Baseado em Ideias Humanas


● Aplicando Princípios Humanos: Nosso prompt se baseia em princípios de escrita,
como os sugeridos por Julian Shapiro. Ao invés de depender de ideias geradas
aleatoriamente pela IA, utilizamos esses princípios para guiar a tarefa. Isso ajuda a
IA a aplicar conceitos humanos de forma mais efetiva.

5. Formatação Amigável para IA


● Facilitando a Compreensão pela IA: Estruture seu prompt de forma que a IA possa
processá-lo facilmente. Por exemplo, usar bullet points e listas ajuda na organização
e clareza. Evite sobrecarregar uma única frase com muitas informações; quebre as
informações em passos menores.

Eu poderia simplesmente dizer:

Faça um Brainstorm de ideias que são Contra-intuitivas, Contra-narrativas, causa choque e


espanto e tem articulações elegantes para um post sobre Email Copywriting

Mas isso é muita informação para resumir em uma frase só,

Então, quebramos tudo passo a passo .

Mantenha essas características em mente quando for escrever seus prompts.

Quando precisar retorne nessa aula e pense: "será que estou deixando faltar algum desses
5 pontos no meu prompt?" Isso vai ajudar muito a melhorar os resultados que você pode
conseguir.

Atribuição de funções
A Atribuição de função é uma técnica que pode ser usada para controlar o estilo do texto
gerado pela IA. Também pode melhorar a precisão da IA ​ao resolver problemas
matemáticos. Implementar a solicitação de função é tão simples quanto instruir a IA a
“incorporar um crítico gastronômico” ou “agir como um detetive”. A solicitação de função é
uma técnica amplamente utilizada e difundida.

Estilizando Texto
A solicitação de função é usada com mais frequência para estilizar texto. Isto envolve pedir
à IA que finja ser uma determinada pessoa, ou aja de uma determinada maneira,
modificando assim a forma como escreve com base na função atribuída. Isso pode ser
usado para alterar o tom, o estilo e até a profundidade das informações apresentadas.
Vamos nos aprofundar nesse conceito com um exemplo de revisão de alimentos.

Exemplo de Crítica Gastronômica


Ao escrever uma resenha, é importante adaptar sua abordagem com base na plataforma
que você está usando e no público para o qual está escrevendo. Simplesmente copiar e
colar a mesma avaliação em vários sites como Google Reviews, TripAdvisor e Yelp não é
uma estratégia eficaz, especialmente se você estiver escrevendo para um crítico
gastronômico em uma revista ou postagem de blog. Para garantir que sua resenha ressoe
com o público-alvo, considere fatores como extensão, estilo, linguagem e tom, e use-os
para criar uma resenha que atenda diretamente aos interesses e expectativas de seus
leitores. Com uma abordagem cuidadosa e foco em conteúdo de qualidade, você pode criar
uma avaliação que realmente capte a essência da pizzaria sobre a qual está escrevendo.
Vamos começar com um prompt simples, sem função.

Entrada (você escreve)


Escreva uma avaliação sobre [Pizzaria]
Saída (chat-gpt retorna)
Tive recentemente o prazer de experimentar [nome aleatório de pizzaria] e devo dizer que
fiquei extremamente impressionado. A pizza estava cozida à perfeição e os ingredientes
eram frescos e saborosos. A massa era leve e crocante, e o molho tinha a quantidade
certa de acidez. O atendimento também foi de primeira; a equipe era amigável e
atenciosa. No geral, tive uma ótima experiência e definitivamente recomendaria [nome
aleatório de pizzaria] para qualquer um que esteja procurando por uma pizza deliciosa.

Esse resultado é muito bom, mas vamos ver o que acontece quando a IA assume o papel
de crítica gastronômica.

Entrada

Você é um crítico gastronômico. Escreva uma crítica sobre [nome de uma pizzaria
aleatória].

Saída da IA

Crítica Gastronômica: Sabor da Itália

Ambiente: Ao entrar na pizzaria Sabor da Itália, somos imediatamente transportados para


uma típica trattoria italiana, com uma atmosfera acolhedora e música ambiente suave. A
decoração rústica, com toques de modernidade, cria um ambiente relaxante e
convidativo.

Atendimento: O serviço é atencioso sem ser intrusivo. Os garçons demonstram


conhecimento detalhado do menu e oferecem recomendações personalizadas. O tempo
de espera entre o pedido e a chegada da pizza é razoável, mostrando eficiência e
cuidado na preparação.

Menu: O cardápio oferece uma diversidade de sabores tradicionais e inovadores,


atendendo a todos os paladares. Destaca-se a opção de personalizar a pizza, permitindo
que os clientes explorem sua criatividade gastronômica.

Comida: As pizzas são o verdadeiro destaque. A massa, fina e crocante nas bordas,
serve de ase perfeita para os ingredientes frescos e de alta qualidade. A pizza
Margherita, com seu equilíbrio perfeito de molho de tomate, mozzarella di bufala e
manjericão fresco, é um testemunho da autenticidade dos sabores.
Preço: Os preços são justos, refletindo tanto a qualidade dos ingredientes quanto a
habilidade na preparação. Há opções para diferentes faixas de preço, tornando a
experiência acessível a uma variedade de clientes.

Podemos ver que adiciona mais detalhes e se aprofunda um pouco mais. Agora vamos dar
passo adiante e fazê-lo assumir o papel de redator do guia Michelin:

Entrada
Você é um crítico gastronômico escrevendo para o Guia Michelin. Escreva uma análise
de [restaurante de pizza aleatório].

Saída

Análise Gastronômica: Pizzaria La Dolce Vita

Ambiente:

Ao adentrar a Pizzaria La Dolce Vita, somos imediatamente transportados para um


cenário que exalta as tradicionais trattorias de Nápoles. O ambiente intimista com
iluminação suave, paredes adornadas com arte italiana e o aroma convidativo de tomates
frescos e massa que exala do forno a lenha criam uma atmosfera acolhedora que
promete uma experiência autêntica.

Serviço:

O serviço merece destaque. Os garçons, vestidos impecavelmente, aliam


profissionalismo e calor humano, entregando uma experiência personalizada. Estão
sempre prontos a oferecer recomendações e demonstram um conhecimento profundo
sobre a composição e a história dos pratos.

Menu:

O cardápio é uma ode às receitas clássicas, mas também apresenta inovações que
desafiam o paladar dos mais aventurosos. Entre as entradas, o antipasto com queijos
artesanais e embutidos de produção própria se destaca.
A estrela, sem dúvida, é a pizza. A massa, fermentação natural e de espessura média,
apresenta bordas aeradas e um leve toque de carvão, cortesia do forno a lenha. A
seleção de ingredientes é meticulosa, com produtos DOP (Denominação de Origem
Protegida), garantindo sabores intensos e genuínos.

Destaques do Menu:

- Margherita Regal: Uma interpretação sublime da clássica Margherita, com mozzarella di


bufala, tomates San Marzano e folhas de manjericão fresco que remetem aos sabores da
Itália meridional.

- Bianca Delicata: Para os amantes de queijos, uma base cremosa de ricota e mozzarella,
finalizada com trufas negras e um toque de mel trufado, criando um equilíbrio perfeito
entre doce e salgado.

Recomendação:

Recomendo vivamente uma visita para os aficionados por pizzas que procuram
autenticidade e qualidade sem compromissos. A pizzaria também é uma escolha
excepcional para eventos especiais, oferecendo um cenário ideal para uma experiência
memorável.

A solicitação de função é uma estratégia poderosa para moldar o resultado de modelos de


IA generativa. Permite-nos controlar o estilo, o tom e a profundidade do texto gerado,
tornando-o mais adequado a contextos ou públicos específicos. Esteja você redigindo um
e-mail, escrevendo uma revisão ou resolvendo um problema matemático, a solicitação de
função pode melhorar significativamente a qualidade e a precisão dos resultados. À medida
que continuamos a explorar as capacidades da IA, a orientação de funções continuará a ser
uma estratégia-chave de engenharia imediata.

Método Learn Prompting para resolver problemas

Desbravando o Universo da Inteligência Artificial Generativa, temos o Método de Solução


de Problemas, uma bússola para navegar na vastidão do Gen AI. Esta estrutura não é
apenas um guia - é um aliado na tomada de decisões críticas: quando convocar a Gen AI,
quais estratégias de engenharia aplicar de imediato, e a escolha acertada das ferramentas.
Vamos mergulhar juntos em cada uma das cinco fases essenciais deste método e, para
cristalizar o aprendizado, exploraremos um estudo de caso prático.
Os Cinco Passos

1. Indique o seu problema


A primeira etapa do Método de Learn Prompting é declarar seu problema. Isso envolve
articular claramente o problema que você está enfrentando, sem pular para possíveis
soluções. Por exemplo:

“Nossos clientes têm dúvidas sobre os recursos de nossos produtos que precisam ser
respondidas, pois estamos perdendo negócios em potencial”.

2. Examine informações
Depois de declarar seu problema, a próxima etapa é examinar as informações relevantes.
Isso pode incluir a pesquisa de problemas semelhantes e suas soluções, o estudo do
contexto do seu problema ou a análise de dados relacionados ao seu problema. Também
inclui encontrar prompts relevantes e ferramentas Gen AI . Esta etapa é crucial para
compreender as nuances do seu problema e identificar abordagens potenciais para
resolvê-lo. Neste ponto, você deve saber se a Gen AI é adequada para o seu problema.

3. Proponha uma solução


Depois de examinar as informações relevantes, você deverá ter uma ideia mais clara de
como resolver seu problema. Agora é hora de propor uma solução. Pode ser um prompt,
uma nova ferramenta ou uma nova maneira de usar uma ferramenta atual. A solução deve
estar diretamente ligada ao problema que você declarou e às informações que você
examinou.

4. Ajuste a solução
Depois de escolher uma solução, que pode ser um prompt ou uma ferramenta, a próxima
etapa é ajustá-la com base no feedback e nos testes. Isso pode envolver a configuração de
testes para ver como os usuários interagem com o prompt, obter feedback dos usuários ou
fazer ajustes com base em sua própria intuição e experiência. É aqui que entra a
engenharia imediata!

5. Lance sua solução


A etapa final do Método de solicitação de aprendizado é lançar sua solução. Isso pode
envolver integrá-lo ao seu produto, publicá-lo em uma plataforma ou simplesmente começar
a utilizá-lo em suas interações com os usuários.

O Método de Learn Prompting é um ciclo, não um processo linear. Depois de lançar sua
solução, você deverá continuar monitorando seu desempenho e fazer os ajustes
necessários. Você pode usar a sigla IEPAL para lembrar essas etapas!
Estudo de caso: usando o método de solicitação de
aprendizado para criar um bot
Vejamos um estudo de caso de como o método de solicitação de aprendizado pode ser
usado para criar um chatbot do zero. Nesse caso, temos uma coleção de perguntas de
usuários sobre chapéus.

1. Explique seu problema: temos um grande volume de dúvidas de usuários sobre


diferentes tipos de chapéus, sua história e como usá-los. Precisamos fazer algo a
respeito porque estamos perdendo negócios potenciais.

2. Examinar informações relevantes: Analisamos as consultas dos usuários que


coletamos. Percebemos que as dúvidas mais comuns são sobre a história de tipos
específicos de chapéus, como usá-los corretamente e como cuidar deles. Também
analisamos os chatbots existentes, examinando sua extensão de contexto, preço e
velocidade, e as ferramentas Gen AI que poderiam nos ajudar a resolver nosso
problema.

3. Proponha uma solução: Com base na nossa análise, decidimos criar um chatbot
usando ChatGPT que possa responder a estes três tipos de questões. Elaboramos
um prompt inicial:

Você é um historiador de chapéus experiente que estudou a história, os estilos e as


maneiras adequadas de usar vários tipos de chapéus. Um usuário faz uma pergunta
sobre chapéus. Responda à sua consulta de maneira útil e informativa: USER_INPUT

4. Ajuste a solução: testamos nossos prompts iniciais com um pequeno grupo de


usuários e coletamos seus comentários. Com base no feedback deles, percebemos
que nossas solicitações precisam ser mais envolventes e menos formais.

Ajustamos nossos prompts de acordo:

Você é um entusiasta de chapéus com vasto conhecimento sobre a história, os estilos e a


etiqueta do uso de vários tipos de chapéus. Um usuário está curioso sobre chapéus e faz
uma pergunta. Responda às suas perguntas de maneira amigável e informativa.

Fazemos ainda mais testes com usuários e percebemos que precisamos segmentar nosso
mercado: as pessoas interessadas na história do chapéu preferem uma abordagem mais
formal, enquanto as interessadas em estilo e em usar o chapéu preferem um bot mais
informal. Desenvolvemos um prompt de roteamento inicial que decide que tipo de usuário
eles são com base em sua pergunta:
Você é uma IA que entende as nuances das consultas relacionadas a chapéus. Com
base na pergunta do usuário, determine se ele está mais interessado na história formal
dos chapéus ou no estilo informal e no uso de chapéus. Responda com Formal para
história- consultas relacionadas e Informal para consultas relacionadas a estilo e uso.
Usamos uma ferramenta como Langchain, Voiceflow ou Dust para conectar o prompt de
roteamento aos outros dois.

5. Lance sua solução: Lançamos o chatbot em nosso site. Continuamos monitorando


as interações dos usuários com o bot e fazendo ajustes adicionais conforme
necessário.

Seguindo o método Learn Prompting, conseguimos criar um chatbot que responde com
eficácia às dúvidas dos usuários sobre chapéus. Este processo destaca a importância de
compreender as necessidades dos usuários, testar e ajustar soluções e melhorar
continuamente com base no feedback dos usuários.

Prompts de Imagem

Descobrir o melhor prompt para criar uma imagem perfeita é um desafio particular. A
pesquisa sobre métodos para trabalhar com imagens não é tão desenvolvida quanto o
prompting de texto. Isso pode ser devido aos desafios inerentes à criação de objetos que
são fundamentalmente subjetivos e frequentemente não têm boas métricas de precisão. No
entanto, não tenha medo, pois a comunidade de prompting de imagem fez grandes
descobertas sobre como lidar vários modelos de imagem.

Modificadores de Estilo
Os modificadores de estilo são simples descritores que produzem de forma consistente
certos estilos (por exemplo, 'tinta vermelha', 'feito de vidro', 'renderizado em Unity'). Eles
podem ser combinados para produzirem estilos ainda mais específicos. Eles podem "incluir
informações sobre períodos, escolas e estilos de arte, mas também materiais e meios de
arte, técnicas e artistas.

Exemplo
Aqui está uma pirâmide geradas pelo DALLE, com o comando pirâmide.
Aqui está uma pirâmide gerada pelo DALLE, com o comando Uma pirâmide feita de vidro,
renderizada em Unity e tinta vermelha, que usa 3 modificadores de estilo.

Aqui está uma lista de alguns modificadores de estilo úteis:

fotorealista, por Greg Rutkowski, por Christopher Nolan, pintura, pintura digital, arte de
conceito, renderização Octane, lente grande angular, renderização 3D, iluminação
cinematográfica, tendência no ArtStation, tendência no CGSociety, hiper realista, foto, luz
natural, grãos de filme
Impulsionadores de qualidade
Os impulsionadores de qualidade são termos adicionados à um prompt para melhorar
determinadas qualidades não-específicas de estilo da imagem gerada. Por exemplo,
"incrível", "bonito" e "boa qualidade" são todas as qualidade impulsoras que podem ser
usadas para melhorar a qualidade da imagem gerada.

Exemplo
Lembre-se da página anterior das pirâmides geradas com o DALLE e o prompt pirâmide.

Agora veja a pirâmide gerada com este prompt: Uma bela, majestosa, incrível pirâmide, 4K

Esta é muito mais cênica e impressionante!

Aqui está uma lista de vários impulsionadores de qualidade:

Alta resolução, 2K, 4K, 8K, nítido, boa iluminação, detalhado, extremamente detalhado,
foco nítido, intrincado, bonito, realista+, cores complementares, alta qualidade, hiper
detalhado, obra-prima, melhor qualidade, artstation, impressionante
Repetição
Repetir a mesma palavra em um prompt ou frases semelhantes pode fazer com que o
modelo enfatize essa palavra na imagem gerada. Por exemplo, A imagem que gerei com o
DALLE:

Uma linda pintura de uma montanha ao lado de uma cachoeira.

Uma linda pintura muito muito muito muito muito muito muito muito muito muito muito muito
muito muito muito muito muito muito bonita de uma montanha ao lado de uma cachoeira.
Tipos de Enquadramento
Os tipos de enquadramento referem-se às várias angulações e composições de câmera
usadas na produção cinematográfica para capturar diferentes perspectivas e efeitos visuais
dentro de uma cena. Esses tipos de enquadramento desempenham um papel crucial na
transmissão da história, na definição do clima e na influência da percepção e das emoções
do público.

Existem vários tipos de enquadramento, cada um com seu propósito único. Alguns
exemplos comuns incluem plano longo, plano médio, plano aéreo e plano de baixo ângulo.

Exemplo
Prompt: astronauta parado na rua, Tipo de Enquadramento, HD, 4K, --sem desfoque, --sem
distorção.

Substitua Tipo de Enquadramento pelo tipo de enquadramento desejado.:

Aqui está uma lista de tipos de enquadramento comumente usados:

Wide Shot/Establishing Shot, Long Shot, Full Shot, Medium Shot, Cowboy Shot, Medium
Close-Up, Close-Up, Extreme Close-Up, Two-Shot, Over-the-Shoulder Shot, Point-of-View
Shot (POV), Reaction Shot, Insert Shot, Cutaway Shot, Low Angle Shot, High Angle Shot,
Dutch Angle/Tilted Shot, Aerial Shot, Tracking Shot, Dolly Shot, Steadicam Shot, Crane
Shot, Handheld Shot, Whip Pan Shot, Zoom Shot, Rack Focus Shot, Split Screen Shot,
Freeze Frame Shot, Slow Motion Shot, Fast Motion Shot, Montage Shot, Cross-Cutting
Shot, Bird's Eye View Shot, Worm's Eye View Shot, Reverse Shot, Reaction Shot,
Panning Shot, Tilt Shot, Follow Shot, Static Shot, Establishing Drone Shot, Underwater
Shot, POV Drone Shot, Crash Zoom Shot, Snorricam Shot, Tracking POV Shot, Vertigo
Shot (Dolly Zoom), Flashback Shot, Flashforward Shot, Static Long Take Shot.

Voz, Tom e Estilo (IA sem parecer IA)

Fazer com que uma IA produza resultados com uma voz, tom e estilo que correspondam ao
que você está procurando pode ser um desafio.

No processo de tornar esses modelos seguros para uso, eles foram refinados com muito
treinamento utilizando um padrão de fala específico.

É a maneira como os designers pretendiam que a IA falasse, mas e se você não quiser que
suas saídas tenham um tom formal, seco e neutro?

Descrevendo a Voz/Tom
A maneira mais fácil de ajustar o estilo de escrita é pedir diretamente.

● Escreva usando um estilo sincero, mas persuasivo.

Aqui estão alguns aspectos de estilo que você pode usar.

Traços de Estilo de Escrita


Tom

● Amigável / Assertivo
● Humilde / Apaixonado
● Respeitoso / Brincalhão
● Encorajador / Crítico
● Otimista / Pessimista
● Solidário / Prejudicial
Registro

● Formal / Informal
● Profissional / Casual
● Confortável / Formalizado

Atitude

● Conversacional / Sério
● Acessível / Sem emoção
● Sério / Descontraído
● Sincero / Sarcástico
● Cômico / Sóbrio
● Engraçado / Espirituoso
● Inspirador / Mundano
● Caprichoso / Prático
● Floreado / Conciso

Estilo de Comunicação

● Direto / Indireto
● Persuasivo / Neutro
● Adaptável / Rígido
● Envolvente / Distante
● Empático / Distante
● Confiante / Reservado
● Compreensivo / Inflexível
● Consistente / Espontâneo
● Respeitoso / Desafiador
● Curioso / Cético

Você pode combinar descritores de voz e estilo. Com base nos meus testes, não
recomendo combinar mais de três, pois tende a deixar as coisas mais confusas e medianas.

Aqui estão alguns exemplos de agrupamento de traços de estilo:

● Formal, Amigável, Profissional: "Por favor, permita-me fornecer algumas informações


valiosas sobre este tópico."

● Informal, Assertivo, Casual: "Ei, confie em mim, eu sei do que estou falando."

● Conversacional, Sério, Acessível: "Vamos discutir esse assunto importante juntos,


não é?"
● Descontraído, Humilde, Persuasivo: "Acredite ou não, até alguém como eu pode
fazer um bom ponto."

● Sincero, Direto, Sem emoção: "Acredito sinceramente que esta seja a melhor linha
de ação."

Fornecendo Exemplos
Em vez de pedir à IA que crie um guia de estilo para você, outra opção é incluir uma
amostra de escrita em seu prompt.

Embora a amostra de escrita dê uma direção mais específica, ela também pode enviesar a
IA a usar a mesma estrutura ou ideias da amostra.

Se seu objetivo é garantir que seu conteúdo escrito por IA pareça o mais humano possível,
esses são conceitos que valem a pena experimentar.

● Perplexidade: quão previsível é o texto.


● Burstiness: variação comparada do comprimento e estrutura da sentença.

Os humanos tendem a escrever com maior burstiness, por exemplo, com algumas frases
mais longas ou complexas junto com frases mais curtas. As frases da IA tendem a ser mais
uniformes.

Outras áreas onde as IAs tendem a ter um desempenho inferior ao dos humanos incluem:

● Coerência: quão bem o texto mantém um tópico consistente e um fluxo lógico de


ideias.

● Criatividade: quão original e inédito é o texto em termos de vocabulário, estilo e


conteúdo.

● Emoção: quão bem o texto transmite o tom, humor e sentimento pretendidos do


escritor ou falante.

● Humor: quão bem o texto usa ironia, sarcasmo, trocadilhos ou piadas para entreter
ou persuadir o leitor ou ouvinte.

Compartilho todos esses conceitos para expandir seu pensamento.

Quando você precisar descrever um estilo de escrita, perceba que há mais do que "claro e
conciso" ou "e-mail comercial formal".
Direcionando o Estilo de uma IA Teimosa 😅
Se a IA ainda não fornecer o tipo de resultado que você está procurando você pode tentar a
estratégia Two-Stepping.

Este tipo de prompt pede à IA para retornar duas saídas.

Uma saída segue seu principal conjunto de instruções. Então, uma segunda saída adiciona
outro conjunto de instruções para transformar a saída.

A maneira mais comum que uso o two-stepping atualmente é para ajudar com a voz, tom e
estilo de escrita.

Aqui está um exemplo:

AÇÃO: Escreva um roteiro curto para um vídeo do YouTube que explique os conceitos
básicos da web3.

SAÍDA: Retorne duas respostas.


• Primeira, "ChatGPT: {O que você normalmente teria fornecido.}"
• Segunda, "GPTDescolado: {Reformule a saída para ser mais impactante e
convincente.}"

O interessante sobre essa estratégia é que ela tende a funcionar melhor do que
simplesmente dar a instrução de uma vez só.

O que quer dizer que, no prompt acima, poderíamos ter pedido por um roteiro curto escrito
em um estilo impactante. Nesse exemplo, porém, o comando de estilo impactante é
ponderado da mesma forma que todas as outras instruções.

Há algo sobre o ato de transformar uma saída em outra que é mais eficaz. Acredito que isso
sinaliza para a IA que você quer algo diferente e específico.

Agora Crie Seu Guia de Estilo


Encontre uma amostra de escrita de pelo menos alguns parágrafos, seja um e-mail, artigo
que você escreveu ou uma sequência de mensagens de bate-papo que enviou no Slack.

Então use algum dos prompts abaixo para extrair:

Extrator de Estilo
Extraia o estilo de escrita no texto fornecido abaixo. Estude e descreva em tópicos o tom,
escolha de palavras, maneirismos, estrutura da frase, ritmo, estilo de explicação e outros
elementos estilísticos para imitar a voz única deste autor: [insira aqui o seu texto]"

MPP

Quero que você extraia um Mapa de Preferências Pessoais (MPP) dos dados que forneço
no próximo prompt. Agora, um PPM é um par chave => valor de condições mapeadas
para preferências. Abaixo estão exemplos de pares chave => valor:
Tom => sarcástico, atrevido e amoroso
Escolha de palavras => formal, complexo
Estrutura da frase => misto de curto e longo, principalmente curto
Estilo de explicação => imagens, vivas, relacionáveis
Só responda afirmativamente se entender a tarefa e não faça mais nada. Quando eu
fornecer o próximo prompt, extraia o PPM usando a mesma lógica e formatação usadas
acima. Os pares chave => valor devem ser separados usando "=>" Além do tom, escolha
de palavras e estilo de explicação, quero que você inclua 10 outros elementos estilísticos
que capturam melhor um estilo de escrita.

Coloque isso em prática e depois me diga o que achou.


APÊNDICE A

Recursos Adicionais
Se você quer se aprofundar ainda mais em engenharia de prompts, segue alguns
recursos adicionais para você virar um@ verdeir@ em prompts.

Observação: A maioria do material abaixo é em inglês, você pode usar uma IA para
traduzir para você ou o tradutor do Google Translate na aba mesmo. Mas
recomendo aprender inglês caso você ainda não saiba.

Documentações Indicadas
● Antrophic
● OpenAI

Bibliotecas e Guias de Prompts


● Article on leaking Notion's prompts
● A great article on applications
● A fantastic PE intro video
● A very nice, short prompt engineering guide
● A great prompt engineering intro
● A nice collection of prompt engineering papers
● Many more prompt engineering papers
● CMU class on prompt engineering
● How Copilot works
● A Beginners Guide to Prompt Writing by Zapier
● Awesome A-Z Prompt-Engineering Resources list
● 500 ChatGPT prompt templates
● Prompt base
● Prompt vibes
● Prompt Hero
● Midjourney community showcase with prompts
● Data Science Prompts
● ALL styles and references for midjourney
● Advanced Prompt Engineering
● Ordinary people prompts

Artigos Adicionais
Li a maioria dos artigos abaixo.

● 2023 AI Index Report(opens in a new tab)


● 3 Principles for prompt engineering with GPT-3(opens in a new tab)
● Eight Things to Know about Large Language Models(opens in a new tab)
● A beginner-friendly guide to generative language models - LaMBDA
guide(opens in a new tab)
● A Complete Introduction to Prompt Engineering for Large Language
Models(opens in a new tab)
● A Generic Framework for ChatGPT Prompt Engineering(opens in a new tab)
● An SEO’s guide to ChatGPT prompts(opens in a new tab)
● Anyone can Design! With a little help from Generative AI(opens in a new tab)
● AI Content Generation(opens in a new tab)
● AI's rise generates new job title: Prompt engineer(opens in a new tab)
● AI Safety, RLHF, and Self-Supervision - Jared Kaplan | Stanford MLSys
#79(opens in a new tab)
● Awesome Textual Instruction Learning Papers(opens in a new tab)
● Awesome ChatGPT Prompts(opens in a new tab)
● Best 100+ Stable Diffusion Prompts(opens in a new tab)
● Best practices for prompt engineering with OpenAI API(opens in a new tab)
● Building GPT-3 applications — beyond the prompt(opens in a new tab)
● Can AI really be protected from text-based attacks?(opens in a new tab)
● ChatGPT, AI and GPT-3 Apps and use cases(opens in a new tab)

⭐️
● ChatGPT Prompts(opens in a new tab)
● ChatGPT Plugins Collection (unofficial)(opens in a new tab)
● ChatGPT3 Prompt Engineering(opens in a new tab)
● CMU Advanced NLP 2022: Prompting(opens in a new tab)
● Common Sense as Dark Matter - Yejin Choi | Stanford MLSys #78(opens in a
new tab)
● Create images with your words – Bing Image Creator comes to the new
Bing(opens in a new tab)
● Curtis64's set of prompt gists(opens in a new tab)
● CS324 - Large Language Models(opens in a new tab)
● CS 324 - Advances in Foundation Models(opens in a new tab)
● CS224N: Natural Language Processing with Deep Learning(opens in a new
tab)
● DALL·E 2 Prompt Engineering Guide(opens in a new tab)
● DALL·E 2 Preview - Risks and Limitations(opens in a new tab)
● DALLE Prompt Book(opens in a new tab)
● [DALL-E, Make Me Another Picasso, Please(opens in a new
tab)](https://www.newyorker.com/magazine/2022/07/11/dall-e-make-me-ano
ther-picasso-please?)
● Diffusion Models: A Practical Guide(opens in a new tab)
● Exploiting GPT-3 Prompts(opens in a new tab)
● Exploring Prompt Injection Attacks(opens in a new tab)
● Extrapolating to Unnatural Language Processing with GPT-3's In-context
Learning: The Good, the Bad, and the Mysterious(opens in a new tab)
● FVQA 2.0: Introducing Adversarial Samples into Fact-based Visual Question
Answering(opens in a new tab)
● Generative AI with Cohere: Part 1 - Model Prompting(opens in a new tab)
● Generative AI: Perspectives from Stanford HAI(opens in a new tab)
● Get a Load of This New Job: "Prompt Engineers" Who Act as Psychologists to
AI Chatbots(opens in a new tab)
● Giving GPT-3 a Turing Test(opens in a new tab)
● GPT-3 & Beyond(opens in a new tab)
● GPT3 and Prompts: A quick primer(opens in a new tab)
● GPT-4 Tutorial: How to Chat With Multiple PDF Files (~1000 pages of Tesla's
10-K Annual Reports)(opens in a new tab)
● Hands-on with Bing’s new ChatGPT-like features(opens in a new tab)
● How to Draw Anything(opens in a new tab)
● How to get images that don't suck(opens in a new tab)
● How to make LLMs say true things(opens in a new tab)
● How to perfect your prompt writing for AI generators(opens in a new tab)
● How to write good prompts(opens in a new tab)
● If I Was Starting Prompt Engineering in 2023: My 8 Insider Tips(opens in a
new tab)
● Indirect Prompt Injection on Bing Chat(opens in a new tab)
● Interactive guide to GPT-3 prompt parameters(opens in a new tab)
● Introduction to ChatGPT(opens in a new tab)
● Introduction to Reinforcement Learning with Human Feedback(opens in a new
tab)
● In defense of prompt engineering(opens in a new tab)
● JailBreaking ChatGPT: Everything You Need to Know(opens in a new tab)
● Long Context Prompting for Claude 2.1(opens in a new tab)
● Language Models and Prompt Engineering: Systematic Survey of Prompting
Methods in NLP(opens in a new tab)
● Language Model Behavior: A Comprehensive Survey(opens in a new tab)
● Learn Prompting(opens in a new tab)
● Learning Prompt(opens in a new tab)
● LINGO : Visually Debiasing Natural Language Instructions to Support Task
Diversity(opens in a new tab)
● Make PowerPoint presentations with ChatGPT(opens in a new tab)
● Meet Claude: Anthropic’s Rival to ChatGPT(opens in a new tab)
● Methods of prompt programming(opens in a new tab)
● Mysteries of mode collapse(opens in a new tab)
● NLP for Text-to-Image Generators: Prompt Analysis(opens in a new tab)
● NLP with Deep Learning CS224N/Ling284 - Lecture 11: Prompting, Instruction
Tuning, and RLHF(opens in a new tab)
● Notes for Prompt Engineering by sw-yx(opens in a new tab)
● On pitfalls (and advantages) of sophisticated large language models(opens in
a new tab)
● OpenAI Cookbook(opens in a new tab)
● OpenAI Prompt Examples for several applications(opens in a new tab)
● Pretrain, Prompt, Predict - A New Paradigm for NLP(opens in a new tab)
● Prompt Engineer: Tech's hottest job title?(opens in a new tab)
● Prompt Engineering by Lilian Weng(opens in a new tab)
● Prompt Engineering 101 - Introduction and resources(opens in a new tab)
● Prompt Engineering 201: Advanced prompt engineering and toolkits(opens in
a new tab)
● Prompt Engineering 101: Autocomplete, Zero-shot, One-shot, and Few-shot
prompting(opens in a new tab)
● Prompt Engineering 101(opens in a new tab)
● Prompt Engineering - A new profession ?(opens in a new tab)
● Prompt Engineering by co:here(opens in a new tab)
● Prompt Engineering by Microsoft(opens in a new tab)
● Prompt Engineering: The Career of Future(opens in a new tab)
● Prompt engineering davinci-003 on our own docs for automated support (Part
I)(opens in a new tab)
● Prompt Engineering Guide: How to Engineer the Perfect Prompts(opens in a
new tab)
● Prompt Engineering in GPT-3(opens in a new tab)
● Prompt Engineering Template(opens in a new tab)
● Prompt Engineering Topic by GitHub(opens in a new tab)
● Prompt Engineering: The Ultimate Guide 2023 [GPT-3 & ChatGPT](opens in a
new tab)
● Prompt Engineering: From Words to Art(opens in a new tab)
● Prompt Engineering with OpenAI's GPT-3 and other LLMs(opens in a new tab)
● Prompt injection attacks against GPT-3(opens in a new tab)
● Prompt injection to read out the secret OpenAI API key(opens in a new tab)
● Prompting: Better Ways of Using Language Models for NLP Tasks(opens in a
new tab)
● Prompting for Few-shot Learning(opens in a new tab)
● Prompting in NLP: Prompt-based zero-shot learning(opens in a new tab)
● Prompting Methods with Language Models and Their Applications to Weak
Supervision(opens in a new tab)
● Prompts as Programming by Gwern(opens in a new tab)
● Prompts for communicators using the new AI-powered Bing(opens in a new
tab)
● Reverse Prompt Engineering for Fun and (no) Profit(opens in a new tab)
● Retrieving Multimodal Information for Augmented Generation: A Survey(opens
in a new tab)
● So you want to be a prompt engineer: Critical careers of the future(opens in a
new tab)
● Simulators(opens in a new tab)
● Start with an Instruction(opens in a new tab)
● Talking to machines: prompt engineering & injection(opens in a new tab)
● Tech’s hottest new job: AI whisperer. No coding required(opens in a new tab)
● The Book - Fed Honeypot(opens in a new tab)
● The ChatGPT Prompt Book(opens in a new tab)
● The ChatGPT list of lists: A collection of 3000+ prompts, examples, use-cases,
tools, APIs, extensions, fails and other resources(opens in a new tab)
● The Most Important Job Skill of This Century(opens in a new tab)
● The Mirror of Language(opens in a new tab)
● The Waluigi Effect (mega-post)(opens in a new tab)
● Thoughts and impressions of AI-assisted search from Bing(opens in a new
tab)
● Unleash Your Creativity with Generative AI: Learn How to Build Innovative
Products!(opens in a new tab)
● Unlocking Creativity with Prompt Engineering(opens in a new tab)
● Using GPT-Eliezer against ChatGPT Jailbreaking(opens in a new tab)
● What Is ChatGPT Doing … and Why Does It Work?(opens in a new tab)
● Why is ChatGPT so good?
Glossário IA
Se você já se sentiu perdido em meio a uma maré de termos técnicos, como se
estivesse navegando em um oceano completamento desconhecido, não se
preocupe, essa sensação é mais comum do que você imagina. Neste mundo
acelerado, onde novas palavras e conceitos surgem a cada piscar de telas, é fácil se
sentir um pouco deslocado.

Mas aqui está a boa notícia: Preparamos um Glossário com todos termos que você
vai ver por aí nas discussões da nossa comunidade e do mundo da tecnologia.

Sempre que não souber ou lembrar o que uma sigla significa, lembre de voltar aqui
para fazer suas consultas.

Agora a tecnologia nunca mais será um bicho-papão!

1. Algoritmo: Um algoritmo é um conjunto de instruções ou regras definidas que


são seguidas para realizar uma tarefa ou resolver um problema,
especialmente por um computador. Na IA, os algoritmos são fundamentais
para processar dados, aprender com eles e tomar decisões ou fazer
previsões com base em padrões identificados.
2. ANPD (Autoridade Nacional de Proteção de Dados): No Brasil, a ANPD é um
órgão responsável pela fiscalização e aplicação da Lei Geral de Proteção de
Dados (LGPD). Ela atua no estabelecimento de normas, orientações e
procedimentos sobre como os dados pessoais devem ser tratados,
garantindo a privacidade e proteção dos dados dos cidadãos.
3. API (Interface de Programação de Aplicações): Uma API é um conjunto de
regras e definições que permite que diferentes softwares ou componentes de
software se comuniquem entre si. Na IA, APIs são frequentemente usadas
para integrar algoritmos de aprendizado de máquina e funcionalidades de IA
em aplicações e sistemas existentes.
4. AWS (Amazon Web Services): AWS é uma plataforma de serviços de
computação em nuvem oferecida pela Amazon. Ela fornece uma variedade de
serviços, incluindo armazenamento de dados, poder de processamento e
ferramentas de IA, que ajudam as empresas e desenvolvedores a criar e
escalar aplicações.
5. Backpropagation (Retropropagação): Na IA, backpropagation é um método
utilizado em redes neurais artificiais para ajustar os pesos das conexões na
rede durante o treinamento. Esse processo minimiza o erro entre a saída
esperada e a saída real da rede, otimizando seu desempenho na tarefa de
aprendizado.
6. Backend: O backend refere-se à parte da arquitetura de software que lida com
a lógica de negócios, o armazenamento e o processamento de dados,
geralmente no servidor. Na IA, o backend é crucial para processar dados
complexos, realizar cálculos e fornecer os resultados para a interface do
usuário (frontend).
7. Big Data: Big Data é um termo que descreve grandes volumes de dados -
tanto estruturados quanto não estruturados - que são processados e
analisados para revelar padrões, tendências e associações. Na IA, Big Data é
essencial para alimentar algoritmos de aprendizado de máquina com a
variedade e quantidade de dados necessários para o treinamento eficaz.
8. BPM (Business Process Management): BPM é uma abordagem disciplinada
para identificar, desenhar, executar, documentar, medir, monitorar e controlar
processos de negócios automatizados e não automatizados para alcançar
resultados consistentes e alinhados com os objetivos estratégicos da
organização.
9. BYOD (Bring Your Own Device): BYOD é uma política empresarial que permite
aos funcionários usar seus dispositivos pessoais - como smartphones,
tablets e laptops - para acessar sistemas e dados da empresa. Embora
ofereça flexibilidade, também apresenta desafios em termos de segurança e
gerenciamento de dados.
10. Cache: Cache é uma forma de armazenamento temporário que ajuda a
acelerar o acesso a dados e informações. Em computadores e dispositivos
móveis, os caches armazenam dados que são acessados frequentemente,
permitindo um carregamento mais rápido em usos subsequentes.
11. ChatGPT: ChatGPT é um modelo de linguagem baseado em IA desenvolvido
pela OpenAI. Ele é capaz de gerar respostas textuais de forma coerente e
relevante, baseando-se em uma vasta quantidade de informações e
aprendizado de máquina. É amplamente utilizado para responder perguntas,
criar conteúdo e em diversas outras aplicações de processamento de
linguagem natural.
12. Cloud (Nuvem): A computação em nuvem refere-se ao armazenamento e
acesso de dados e programas pela Internet, em vez de em um computador ou
servidor local. Ela oferece escalabilidade, eficiência e economia de custos,
permitindo aos usuários acessar recursos de TI sob demanda.
13. CMYK (Cyan, Magenta, Yellow e Black Key): CMYK é um modelo de cores
usado em impressão colorida. Ele utiliza quatro tintas (ciano, magenta,
amarelo e preto) sobrepostas em diferentes intensidades para criar uma
ampla gama de cores. É o padrão na indústria gráfica para impressão em
papel.
14. Cookie: Cookies são pequenos arquivos de dados armazenados no
navegador do usuário ao visitar websites. Eles são usados para lembrar
informações sobre a visita, como preferências de navegação, login, e ajudam
na personalização da experiência do usuário na web.
15. Criptografia: Criptografia é o processo de converter informações ou dados
em um código para prevenir acessos não autorizados. É uma prática
essencial para garantir a segurança da informação em comunicações digitais
e armazenamento de dados.
16. CRM (Customer Relationship Management): CRM é um sistema que ajuda as
empresas a gerenciar e analisar as interações com clientes atuais e
potenciais. O objetivo é melhorar as relações comerciais, auxiliando na
retenção de clientes e no aumento das vendas.
17. CMS (Content Management System): Um CMS é uma plataforma de software
que permite a criação, edição, gerenciamento e publicação de conteúdo
digital. É amplamente utilizado em websites e blogs para gerenciar o
conteúdo de forma eficiente e intuitiva.
18. CPU (Central Processing Unit): A CPU, ou Unidade Central de Processamento,
é o cérebro do computador, onde a maioria dos cálculos ocorre. É um
componente crucial que executa as instruções de um programa de
computador interpretando e processando as operações básicas.
19. CSV (Valores Separados por Vírgula): Um arquivo CSV é um tipo de arquivo de
texto que utiliza uma vírgula para separar valores. É comumente usado para
trocar dados entre diferentes aplicações, como bancos de dados e planilhas.
20. Dados de Treinamento: Em IA, dados de treinamento são conjuntos de dados
usados para treinar modelos de aprendizado de máquina. Esses dados são
essenciais para que o modelo aprenda a realizar tarefas específicas, como
reconhecimento de imagem, processamento de linguagem natural, entre
outras.
21. Data Compliance (Conformidade de Dados): Refere-se à adesão às leis e
regulamentações que governam a coleta, armazenamento e uso de dados. A
conformidade de dados é crucial para assegurar a privacidade do usuário e a
proteção contra o uso indevido de dados.
22. Deep Learning (Aprendizado Profundo): Deep learning é um subcampo da
aprendizagem de máquina baseado em redes neurais artificiais com várias
camadas. É usado para modelar padrões complexos em grandes conjuntos
de dados, sendo fundamental em aplicações como reconhecimento de fala,
visão computacional e tradução automática.
23. DNS (Domain Name System): O DNS é um sistema que traduz nomes de
domínio legíveis por humanos (como openai.com) em endereços IP
numéricos. Isso facilita a navegação na Internet, permitindo que os usuários
encontrem sites usando nomes de domínio em vez de endereços
24. DPO (Data Protection Officer): O Data Protection Officer é um cargo criado
pela GDPR (Regulamento Geral sobre a Proteção de Dados) da União
Europeia, responsável por garantir que uma organização esteja em
conformidade com as leis de proteção de dados. O DPO é o ponto de contato
entre a empresa e as autoridades de proteção de dados.
25. Embed: Embed, em tecnologia, refere-se à prática de integrar conteúdo de
uma fonte externa dentro de um site ou aplicativo. Isso pode incluir incorporar
vídeos, mapas, feeds de redes sociais ou outros conteúdos usando um
código HTML específico.
26. Embedar: É um termo informal derivado de "embed", significando o ato de
incorporar conteúdo de uma fonte externa em um website ou aplicativo. Por
exemplo, embedar um vídeo do YouTube em um blog.
27. Fine-Tuning (Ajuste Fino): No contexto de IA, fine-tuning é o processo de fazer
ajustes refinados em um modelo de aprendizado de máquina pré-treinado
para melhorar seu desempenho em uma tarefa específica ou conjunto de
dados.
28. Fintech: Fintech, uma combinação de "financeiro" e "tecnologia", refere-se às
empresas e serviços que usam tecnologia para automatizar e melhorar os
serviços financeiros. Isso inclui tudo, desde pagamentos móveis e
transferências online até crowdfunding e gestão de investimentos.
29. Flaw Point: Termo não amplamente reconhecido no contexto de IA ou
tecnologia. Pode se referir a um ponto de falha ou uma fraqueza em um
sistema ou processo.
30. Frontend: O frontend de um aplicativo ou site é a parte com a qual o usuário
interage diretamente. Inclui a interface do usuário, design gráfico e alguns
aspectos de programação que funcionam no navegador do usuário.
31. Full Stack: Um desenvolvedor full stack é alguém que tem a habilidade de
trabalhar tanto no frontend quanto no backend de um aplicativo ou site. Eles
possuem conhecimentos abrangentes que cobrem várias tecnologias e
plataformas.
32. GDPR (General Data Protection Regulation): A GDPR é um regulamento da
União Europeia que estabelece diretrizes para a coleta e processamento de
informações pessoais de indivíduos dentro da UE. É um dos marcos legais
mais rigorosos em termos de proteção de dados.
33. GPT (Generative Pre-training Transformer): GPT é um tipo de modelo de
linguagem baseado em IA desenvolvido pela OpenAI. Utiliza o aprendizado
profundo para gerar texto, podendo ser adaptado para diversas tarefas de
processamento de linguagem natural, como tradução, resumo e geração de
conteúdo.
34. GPU (Graphics Processing Unit): Uma GPU é um processador especializado
otimizado para acelerar a manipulação e criação de imagens e vídeos. Em IA,
GPUs são fundamentais para processar grandes conjuntos de dados e
realizar cálculos complexos de forma mais eficiente do que as CPUs
tradicionais.
35. IA (Inteligência Artificial): Inteligência Artificial é a simulação de processos de
inteligência humana por sistemas computacionais. Isso inclui aprendizado (a
aquisição de informações e regras para usar a informação), raciocínio
(usando regras para chegar a conclusões aproximadas ou definitivas) e
autocorreção.
36. IA Generativa: Inteligência Artificial Generativa refere-se a sistemas de IA que
podem gerar novos conteúdos ou dados que não existiam anteriormente,
como imagens, textos, música, etc. Isso é frequentemente realizado através
de técnicas como redes generativas adversárias (GANs).
37. IaaS (Infrastructure as a Service): IaaS é um serviço de computação em
nuvem que oferece recursos de infraestrutura básica - como servidores, rede,
armazenamento e espaço de data center - sobre uma base de pagamento
conforme o uso.
38. IFTTT (If This Then That): IFTTT é um serviço gratuito que permite aos
usuários criar cadeias de comandos simples, chamadas de "applets". Estes
applets são baseados na lógica: se isso acontecer (um gatilho), então faça
aquilo (uma ação). É usado para automatizar tarefas entre diferentes serviços
e dispositivos.
39. IMEI (International Mobile Equipment Identity): IMEI é um número único de
identificação para cada dispositivo móvel. Funciona como uma espécie de
identidade digital do aparelho, usado principalmente para rastreamento e
segurança, especialmente em casos de roubo ou perda.
40. I/O (Input/Output): Input/Output refere-se ao processo de entrada (input) e
saída (output) de dados em um sistema computacional. Input é a informação
inserida no sistema, enquanto output é a informação processada e produzida
pelo sistema.
41. IoT (Internet of Things): Internet of Things é a rede de dispositivos físicos
("coisas") que estão conectados à internet, coletando e compartilhando
dados. Isso inclui tudo, desde eletrodomésticos inteligentes até carros
conectados e sistemas de monitoramento urbano.
42. IP (Internet Protocol): IP é o principal protocolo de comunicação para a
transmissão de dados através da internet. Cada dispositivo conectado à
internet tem um endereço IP único, que é usado para identificar e localizar o
dispositivo na rede.
43. LGPD (Lei Geral de Proteção de Dados): A LGPD é a legislação brasileira que
regula o tratamento de dados pessoais, incluindo seu armazenamento,
manipulação e compartilhamento. É semelhante ao GDPR europeu e visa
proteger a privacidade e a segurança dos dados pessoais dos cidadãos.
44. LLM (Large Language Models): Modelos de linguagem de grande escala são
sistemas de IA avançados capazes de entender, gerar e interpretar linguagem
humana com um alto nível de proficiência. Eles são treinados com enormes
conjuntos de dados textuais e são fundamentais em aplicações como
tradução automática, resumo de texto e geração de conteúdo.
45. LMS (Learning Management System): Um sistema de gestão de
aprendizagem é uma plataforma de software usada para fornecer,
acompanhar e gerenciar cursos e treinamentos educacionais. É amplamente
usado em educação e treinamento corporativo.
46. Mineração de Dados: Mineração de dados é o processo de descobrir padrões
e conhecimentos a partir de grandes conjuntos de dados. Utiliza métodos de
IA, estatística e sistemas de banco de dados para extrair informações úteis e
insights.
47. ML (Machine Learning): Machine Learning, ou aprendizado de máquina, é um
subcampo da IA que foca no desenvolvimento de sistemas capazes de
aprender e melhorar a partir da experiência, sem serem explicitamente
programados.
48. NFC (Near Field Communication): NFC é uma tecnologia de comunicação
sem fio de curto alcance que permite a troca de dados entre dispositivos
próximos. É amplamente utilizada em pagamentos móveis e tags
inteligentes.
49. NLP (Natural Language Processing): Processamento de linguagem natural é
uma área da IA que se concentra na interação entre computadores e
linguagem humana. Ela envolve a compreensão, interpretação e geração de
linguagem natural por máquinas.
50. OCR (Optical Character Recognition): OCR é uma tecnologia que converte
diferentes tipos de documentos, como imagens digitalizadas de texto
impresso ou manuscrito, em dados de texto editáveis e pesquisáveis.
51. Open Code: O termo "Open Code" geralmente se refere a "código aberto", que
é um modelo de desenvolvimento de software onde o código-fonte é
disponibilizado publicamente para que qualquer pessoa possa estudar,
modificar e distribuir.
52. Pixel: Pixel é a menor unidade que compõe uma imagem digital. São pontos
minúsculos que, quando combinados em milhões, criam a ilusão óptica de
formas, cores e movimentos nas telas eletrônicas. Os pixels são a base
fundamental para a visualização de imagens em dispositivos digitais.
53. Prompt: Em IA, um prompt é o "empurrãozinho" dado para iniciar a operação
de um modelo de IA, especialmente em IA generativa. É o comando ou
solicitação (geralmente em forma de texto) que orienta a IA a realizar uma
tarefa específica.
54. Query: Uma query, ou consulta, é um pedido de informação a um banco de
dados. É como uma pergunta formulada em uma linguagem que o banco de
dados pode entender e responder, retornando as informações solicitadas.
55. RPA (Robotic Process Automation): RPA é a tecnologia que permite a
automação de processos empresariais por meio de "robôs" de software.
Estes robôs podem realizar tarefas repetitivas de forma rápida e precisa,
superando a capacidade humana em consistência e eficiência.
56. SaaS (Software as a Service): SaaS é um modelo de distribuição de software
onde os aplicativos são hospedados por um provedor de serviços e
disponibilizados aos usuários pela internet, geralmente sob um modelo de
assinatura. Este modelo é popular entre startups e empresas de tecnologia.
57. Sandbox: Em desenvolvimento de software, um sandbox é um ambiente de
teste isolado que imita o ambiente de produção. Aqui, os desenvolvedores
podem experimentar e testar novas funcionalidades sem afetar o ambiente
operacional principal.
58. SEO (Search Engine Optimization): SEO envolve um conjunto de técnicas e
estratégias para otimizar sites a fim de melhorar seu posicionamento nos
resultados de busca orgânica de motores de busca, como o Google. O
objetivo é aumentar a visibilidade e atrair mais tráfego para o site.
59. SSL (Secure Sockets Layer): SSL é um protocolo de segurança que estabelece
uma conexão criptografada entre um servidor web e um navegador. Garante
que todos os dados transmitidos sejam seguros e privados. É indicado pela
presença de "https" e um cadeado na barra de endereços do navegador.
60. Text-to-Speech: Text-to-Speech é uma tecnologia de IA que converte texto em
fala falada. É amplamente utilizada em assistentes virtuais, leitores de tela
para deficientes visuais e outras aplicações que requerem interação vocal.
61. UI (User Interface): User Interface é a interface através da qual um usuário
interage com um dispositivo ou aplicativo. Inclui elementos visuais, como
botões, ícones, menus e tudo que ajuda o usuário a navegar e interagir com o
software ou hardware.
62. UX (User Experience): User Experience é o processo de criação de produtos
que proporcionam experiências significativas e relevantes aos usuários. Inclui
aspectos de branding, design, usabilidade e função.
63. URL (Uniform Resource Locator): URL é o endereço web de um recurso
disponível na internet. É a string de texto que você digita na barra de
endereços do navegador para visitar um site ou página específica.
64. VPN (Virtual Private Network): VPN é uma tecnologia que cria uma conexão
segura e criptografada sobre uma rede menos segura, como a internet.
Permite que usuários enviem e recebam dados de forma privada, mesmo que
estejam conectados a uma rede pública.
65. Wireframe: Wireframe é um esboço visual básico que mostra a estrutura de
um site ou aplicativo. Funciona como um plano, mostrando a disposição dos
elementos de interface e a navegação básica do site ou aplicativo, antes do
desenvolvimento completo e do design final.

Você também pode gostar