„Schon wieder 50 Euro für API-Calls verbrannt – und das nur für JSON-Klammern?“ Wenn ihr regelmäßig mit Large Language Models arbeitet, kennt ihr diesen Schmerz. Jedes geschweifte Klammer-Pärchen, jede Anführungszeichen-Orgie und jeder wiederholte Key in euren JSON-Payloads frisst Tokens. Tokens kosten Geld. Punkt.
Mit über 15 Jahren Erfahrung in Softwarequalität und Open Source sehen wir bei Never Code Alone täglich, wie Teams ihre LLM-Budgets unnötig aufblähen. Die Lösung? Ein neues Datenformat namens TOON (Token-Oriented Object Notation), das genau für dieses Problem entwickelt wurde.
Was macht JSON zum Token-Fresser?
Das Problem ist simpel: JSON wurde für Menschen und traditionelle APIs entwickelt – nicht für KI-Modelle. Wenn ihr ein Array mit Mitarbeiterdaten an GPT-4 oder Claude schickt, wiederholt JSON jeden einzelnen Key für jeden einzelnen Datensatz:
[
{"id": 1, "name": "Alice", "department": "Engineering", "salary": 120000},
{"id": 2, "name": "Bob", "department": "Marketing", "salary": 95000},
{"id": 3, "name": "Charlie", "department": "Engineering", "salary": 110000}
]
Jede geschweifte Klammer, jedes Komma, jeder Doppelpunkt – alles wird tokenisiert. Bei diesem kleinen Beispiel sind das bereits über 250 Tokens. Multipliziert das mit tausenden API-Calls pro Tag, und ihr versteht, warum eure Rechnungen explodieren.
TOON: Das Token-optimierte Datenformat
TOON kombiniert die besten Eigenschaften von YAML (Einrückung statt Klammern) und CSV (tabellarische Datenstruktur) zu einem Format, das LLMs deutlich effizienter verarbeiten können. Dieselben Mitarbeiterdaten sehen in TOON so aus:
[3]{id,name,department,salary}:
1,Alice,Engineering,120000
2,Bob,Marketing,95000
3,Charlie,Engineering,110000
Ihr seht den Unterschied sofort: Keys werden einmal deklariert, Daten folgen als Zeilen. Das spart in diesem Fall etwa 35% Tokens. Bei größeren Datensätzen mit hunderten Einträgen erreicht ihr locker 50-60% Ersparnis.
Die Benchmarks sprechen eine klare Sprache: In unabhängigen Tests erreicht TOON 74% Accuracy bei nur 2.744 Tokens – während JSON für dieselbe Aufgabe 70% Accuracy bei 3.081 Tokens liefert. Weniger Tokens, bessere Ergebnisse. Kein schlechter Deal.
Wann lohnt sich TOON wirklich?
TOON ist kein Allheilmittel, aber in bestimmten Szenarien ein echter Gamechanger. Das Format glänzt besonders bei uniformen Arrays – also Datensätzen, bei denen jedes Objekt die gleichen Felder hat. Klassische Anwendungsfälle sind Log-Dateien, User-Listen, Produktkataloge oder Transaktionsdaten.
Für verschachtelte, ungleichmäßige Strukturen ist JSON oft weiterhin effizienter. Und für rein tabellarische Daten ohne Hierarchie bleibt CSV die kompakteste Option. TOON besetzt die Nische dazwischen: strukturierte Daten mit moderater Tiefe, die ihr regelmäßig an LLMs übergebt.
Der Sweet Spot? RAG-Pipelines, Chatbots mit Datenbankanbindung, KI-Agenten mit Tool-Calls und Multi-Step-Workflows. Überall dort, wo strukturierte Daten Teil eurer Prompts sind.
So integriert ihr TOON in bestehende Projekte
Die gute Nachricht: TOON ersetzt JSON nicht, sondern ergänzt es. Euer Backend arbeitet weiter mit JSON, eure APIs sprechen JSON, eure Datenbank exportiert JSON. Nur der letzte Schritt vor dem LLM-Call ändert sich: JSON → TOON konvertieren.
Implementierungen gibt es bereits für TypeScript, Python, Go, .NET, PHP, Ruby und weitere Sprachen. Die TypeScript-Variante ist die Referenzimplementierung:
import { encode, decode } from '@toon-format/toon';
// Eure normalen JSON-Daten
const data = {
users: [
{ id: 1, name: "Alice", role: "admin" },
{ id: 2, name: "Bob", role: "user" }
]
};
// Vor dem LLM-Call konvertieren
const toonString = encode(data);
// Nach dem LLM-Response zurück zu JSON
const jsonObject = decode(toonString);
Für Python-Projekte funktioniert es analog:
import toon
employees = [
{"id": 1, "name": "Alice", "salary": 120000},
{"id": 2, "name": "Bob", "salary": 95000}
]
toon_data = toon.encode(employees)
prompt = f"Analysiere diese Mitarbeiterdaten:n{toon_data}"
Validierung und Fehlerbehandlung
TOON bringt einen entscheidenden Vorteil mit: Schema-Awareness. Die expliziten Längenangaben [N] und Felddeklarationen {fields} helfen nicht nur bei der Token-Ersparnis, sondern auch bei der Validierung von LLM-Outputs. Im Strict-Mode erkennt der Parser sofort, wenn das Modell fehlerhafte Daten generiert hat.
Das ist besonders wertvoll in Produktionsumgebungen, wo ihr euch auf konsistente Datenstrukturen verlassen müsst. Statt kryptische JSON-Parsing-Fehler zu debuggen, bekommt ihr klare Fehlermeldungen über Zeilenzahl-Mismatches oder ungültige Escape-Sequenzen.
Kostenrechnung: Was spart ihr konkret?
Rechnen wir mal durch: Bei GPT-4 mit 30 Dollar pro Million Tokens und einer durchschnittlichen Token-Ersparnis von 40% durch TOON spart ihr 12 Dollar pro Million Tokens. Klingt nach wenig? Bei 10.000 API-Calls täglich mit jeweils 1.000 Tokens Input summiert sich das auf 3.600 Dollar Ersparnis pro Monat.
Für KI-intensive Startups oder Enterprise-Anwendungen mit hohem Durchsatz kann TOON den Unterschied zwischen profitabel und defizitär ausmachen. Und selbst wenn eure Volumes kleiner sind: Weniger Tokens bedeuten auch schnellere Inferenz-Zeiten. Time-to-First-Token sinkt, Latenz verbessert sich.
Limitierungen, die ihr kennen solltet
Fairerweise: TOON ist noch jung. Die Spezifikation liegt bei Version 2.0 (Working Draft), und nicht alle LLMs wurden explizit auf TOON trainiert. In der Praxis zeigt sich jedoch, dass moderne Modelle wie GPT-4, Claude und Gemini TOON-formatierte Daten problemlos verarbeiten – teilweise sogar mit höherer Accuracy als JSON.
Für latenz-kritische Anwendungen mit lokalen oder quantisierten Modellen empfehlen wir: Benchmark first. In manchen Setups kann kompaktes JSON schneller geparst werden als TOON, trotz der Token-Ersparnis.
Der praktische Einstieg
Ihr wollt TOON ausprobieren? Startet klein: Nehmt einen bestehenden LLM-Call mit großem JSON-Payload, konvertiert ihn zu TOON, und messt den Unterschied. Die meisten Teams sehen innerhalb von 30 Minuten erste Ergebnisse.
Online-Converter wie json2toonparser.com oder das CLI-Tool npx @toon-format/cli data.json --stats zeigen euch sofort, wie viele Tokens ihr bei euren spezifischen Datenstrukturen spart.
Ihr braucht Unterstützung bei der Integration?
Bei Never Code Alone beraten wir seit über 15 Jahren Teams zu Softwarequalität, Open Source und effizienten Entwicklungsprozessen – remote und praxisnah. Ob ihr TOON in bestehende Pipelines integrieren, eure LLM-Architektur optimieren oder generell eure KI-Kosten senken wollt: Wir helfen euch, die richtigen Entscheidungen zu treffen.
Schreibt uns einfach eine Mail an roland@nevercodealone.de und schildert euer Setup. Wir schauen gemeinsam, wo die größten Einsparpotenziale liegen und wie ihr sie heben könnt.
Never Code Alone – Gemeinsam für bessere Software-Qualität!
