Chat-Thread-Viewer

Füge ein OpenAI- oder Anthropic-Messages-Array (JSON) ein und sieh es als lesbaren Chat-Thread. Nach Rolle farbcodiert. Tool-Call-Parameter ausklappbar. Reiner Browser, kein Upload.

Wozu ist das gut?

LLM-Anwendungen protokollieren ihre Konversationen als JSON-Arrays von Nachrichten — das wird an die API geschickt und taucht in Audit-Logs, Evaluation-Traces, Fine-Tuning-Datensätzen und SDK-Debug-Output auf. Diese Arrays als Mensch zu lesen ist grauenhaft: Mauern aus escapten Strings, Tool-Call-Argumente in escaptem JSON-in-JSON, System-Prompts mit dem Rest vermischt. Dieses Tool rendert dir schnell Chat-Bubbles, damit du die tatsächliche Konversation überblickst, siehst welche Nachrichten Tool-Calls enthielten und den einen Prompt findest, der schiefging.

Welche Formate erkannt werden

Was gerendert wird

Typische Stolperfallen