Contador de Tokens

Estima tokens para GPT-4, Claude, Llama, Gemini y otros LLMs. Pega texto y mira el conteo por modelo lado a lado. Los archivos no salen del navegador.

ModelTokensInput $/1MCost (this text)
Estimates only. Real tokenizers (tiktoken, SentencePiece, etc.) may differ by ±10%. For exact counts, run the model's tokenizer locally.

¿Para qué sirve?

Cada interacción con un LLM se cobra en tokens — sub-unidades de palabra que el tokenizador del modelo extrae de tu texto. Los tokens determinan tanto los límites de la ventana de contexto ("¿cabe esto?") como el precio ("¿cuánto costará?"). El recuento exacto depende del tokenizador del modelo, que normalmente no tienes a mano. Esta herramienta te da una estimación rápida para todos los modelos principales lado a lado, más el coste en dólares según los precios publicados.

Cuándo usarlo

Honestidad sobre la precisión

Notas sobre los precios

Errores comunes