Compteur de Tokens

Estimez les tokens pour GPT-4, Claude, Llama, Gemini et d'autres LLM. Collez du texte, voyez le compte par modèle côte à côte. Les fichiers ne quittent jamais votre navigateur.

ModelTokensInput $/1MCost (this text)
Estimates only. Real tokenizers (tiktoken, SentencePiece, etc.) may differ by ±10%. For exact counts, run the model's tokenizer locally.

À quoi ça sert ?

Chaque interaction avec un LLM est facturée en tokens — des sous-unités de mots que le tokenizer du modèle découpe dans votre texte. Les tokens déterminent à la fois les limites de la fenêtre de contexte ("est-ce que ça rentre ?") et le prix ("combien ça va coûter ?"). Le décompte exact dépend du tokenizer du modèle, que vous n'avez généralement pas sous la main. Cet outil donne une estimation rapide pour chaque modèle majeur côte à côte, plus le coût en dollars selon les prix publiés.

Quand l'utiliser

Honnêteté sur la précision

Notes sur les prix

Pièges courants