Contador de Tokens

Estima a contagem de tokens em GPT-4, Claude, Llama, Gemini e outros LLMs. Cole o texto e veja a contagem por modelo lado a lado. Os arquivos nunca saem do seu navegador.

ModelTokensInput $/1MCost (this text)
Estimates only. Real tokenizers (tiktoken, SentencePiece, etc.) may differ by ±10%. For exact counts, run the model's tokenizer locally.

Para que serve?

Toda interação com um LLM é cobrada em tokens — sub-unidades de palavra que o tokenizador do modelo extrai do seu texto. Tokens determinam tanto os limites da janela de contexto ("isso cabe?") quanto o preço ("quanto vai custar?"). A contagem exata depende do tokenizador do modelo, que você normalmente não tem à mão. Esta ferramenta dá uma estimativa rápida para todos os modelos principais lado a lado, mais o custo em dólares pelos preços publicados.

Quando usar

Honestidade sobre precisão

Notas sobre preços

Pegadinhas comuns