Quando você conversa com uma inteligência artificial como o ChatGPT, a resposta que aparece na tela não é tirada de um baú mágico. Ela é calculada em tempo real, palavra por palavra, com base em alguns conceitos-chave que fazem tudo funcionar por trás dos panos.
Hoje você vai entender três desses conceitos que controlam o comportamento da IA: token, temperatura e top-p.
🧱 Token: os tijolinhos da linguagem
Antes de gerar uma resposta, a IA precisa quebrar seu texto em tokens.
Um token é uma unidade básica de texto. Pode ser uma palavra inteira, parte dela ou até um sinal de pontuação.
Exemplos:
- “Computador” pode virar dois tokens: comput + ador
- “Olá!” pode virar três: Olá + ! + espaço
Por que isso importa?
Porque tudo o que você envia (e tudo o que a IA responde) gasta tokens.
Modelos têm limites de tokens por conversa. Por exemplo:
- GPT-3.5: ~4.000 tokens (~3.000 palavras)
- GPT-4 Turbo: até 128.000 tokens (~100.000 palavras!)
Se a conversa for longa demais, a IA esquece o começo, porque não cabe tudo na janela de contexto.
🌡️ Temperatura: o botão de criatividade da IA
A temperatura define o nível de imprevisibilidade da resposta.
- Temperatura baixa (ex: 0.1) → Respostas mais seguras, diretas, e conservadoras.
- Temperatura alta (ex: 0.9 ou 1.2) → Respostas mais criativas, ousadas… e às vezes esquisitas.
Veja a diferença:
Prompt: “Me dê uma frase motivacional para segunda-feira.”
- Temperatura 0.2 → “Acredite em você e comece com foco.”
- Temperatura 0.8 → “Levanta, sacode a preguiça e vai brilhar como nunca.”
- Temperatura 1.3 → “Desperte com a energia de um furacão zen empurrando o universo pra frente.” 🌪️🧘♂️
Use temperatura baixa quando quiser respostas precisas.
Use temperatura alta quando quiser variações criativas ou ideias novas.
🔢 Top-p: o filtro de possibilidades
Enquanto a temperatura decide como a IA escolhe, o top-p define de onde ela pode escolher.
Funciona assim: o modelo calcula várias palavras possíveis para vir na sequência, com suas probabilidades. O top-p recorta apenas as palavras mais prováveis cuja soma atinja “p” (de 0 a 1).
- Top-p = 1.0 → todas as palavras são consideradas
- Top-p = 0.8 → apenas as palavras mais prováveis que somam 80% são consideradas
Resultado?
Top-p mais baixo → respostas mais seguras
Top-p mais alto → respostas mais diversas
Você pode usar temperatura e top-p juntos, mas cuidado: se os dois forem altos, a IA pode ficar aleatória demais.
🎯 Resumo Rápido
| Conceito | O que faz | Use para |
|---|---|---|
| Token | Fragmenta o texto em unidades menores (palavras, partes de palavras ou símbolos) | Medir custo, controlar tamanho das mensagens e entender os limites da janela de contexto |
| Temperatura | Controla o nível de criatividade e imprevisibilidade da IA | Ajustar o tom da resposta. Temperaturas mais baixas para respostas seguras, mais altas para respostas criativas |
| Top-p | Define o recorte de palavras possíveis com base nas mais prováveis até somar a porcentagem indicada | Restringir ou expandir a variedade de respostas, filtrando o “nível de ousadia” da IA |
🧱 Token
O que faz: Fragmenta o texto em unidades menores (palavras, partes de palavras ou símbolos)
Use para: Medir custo, controlar o tamanho da mensagem e entender os limites da janela de contexto
🌡️ Temperatura
O que faz: Controla o nível de criatividade e imprevisibilidade da IA
Use para: Ajustar o tom da resposta. Temperaturas mais baixas geram respostas seguras, mais altas aumentam a criatividade
🔢 Top-p
O que faz: Define o recorte de palavras possíveis com base nas mais prováveis até atingir a porcentagem indicada
Use para: Restringir ou expandir a variedade de respostas, filtrando o “nível de ousadia” da IA
🚀 Por que isso importa?
Saber usar tokens, temperatura e top-p te dá mais controle sobre a IA.
Você para de simplesmente “esperar uma resposta” e começa a direcionar a IA como uma ferramenta estratégica.
Na prática, você escreve menos, recebe respostas melhores e entende o que está acontecendo por trás da cortina.
Se curtir esse tipo de conteúdo, dá uma passada no blog e aproveita para explorar os outros artigos da série: