Keine Werbung mögen? Gehen Werbefrei Heute

LLM-Token-Zähler-Schätzer

DatenEntwicklerText
ANZEIGE Entfernen?

Modell

Verwendet für die Kostenabschätzung.

Tokenabschätzung

Verwendung des Kontextfensters

Kostenabschätzung

Tokenvisualisierung

ANZEIGE Entfernen?

Führung

LLM Token Count Estimator

LLM-Token-Zähler-Schätzer

Fügen Sie einen Prompt, Dokument oder Codeausschnitt ein und sehen Sie sofort eine geschätzte Tokenanzahl für GPT-4o, GPT-4 Turbo, GPT-3.5, die o1-Reasoning-Modelle, Claude 3.x und Gemini 1.5. Die Anwendung läuft vollständig im Browser, aktualisiert sich in Echtzeit, wenn Sie schreiben, und zeigt die Anzahl an Token zusammen mit Kosten pro Million Token und einer lebendigen Balkenansicht für die Verwendung des Kontextfensters an, damit Sie sofort erkennen können, wie nahe Sie dem Grenzwert eines Modells sind.

Nutzung

  1. Fügen Sie Ihren Text in das Eingabefeld ein oder tippen Sie ihn ein. Die Anwendung verarbeitet jede Änderung sofort, ohne dass Sie eine Schaltfläche drücken müssen.
  2. Wählen Sie ein Zielmodell aus dem Dropdown-Menü. GPT-4o ist standardmäßig ausgewählt.
  3. Legen Sie optional eine erwartete Ausgabetokenanzahl fest, damit die Kostenabschätzung auch die Generationskosten berücksichtigt, nicht nur die Eingabekosten.
  4. Lesen Sie die Tokenabschätzung, die Anzahl an Zeichen pro Token und den Balken für die Verwendung des Kontextfensters, um die Größe des Prompts vor dem Absenden zu bewerten.
  5. Vergleichen Sie die Eingabekosten, Ausgabekosten und die Gesamtkosten in der Preisliste für alle unterstützten Modelle.
  6. Scannen Sie die Tokenvisualisierung, um zu sehen, wo die ungefähren Tokengrenzen liegen. Nachbarn Tokens wechseln Farbe, sodass jedes Einheit visuell eindeutig ist.

Funktionen

  • Zwölf Modelle nebeneinander – GPT-4o, GPT-4o Mini, GPT-4 Turbo, GPT-4, GPT-3.5 Turbo, o1, o1-mini, Claude 3.5 Sonnet, Claude 3 Opus, Claude 3 Haiku, Gemini 1.5 Pro und Gemini 1.5 Flash werden in einer Tabelle verglichen.
  • Balken für die Verwendung des Kontextfensters – Zeigt Ihre Tokenanzahl als Prozentsatz des ausgewählten Modells Fensters an, mit Warn- und Gefahrenfarben, wenn Sie die Grenzen von 70% und 90% überschreiten.
  • Kostenabschätzung mit Ausgabetoken – Die Preise pro Million Token für Eingabe und Ausgabe werden auf Ihre tatsächliche Eingabegröße und eine konfigurierbare erwartete Antwortlänge angewendet.
  • Tokenvisualisierung – Alternierende Farbblöcke zeigen an, wo sich ungefähre BPE-artige Tokengrenzen befinden, wobei führende Leerzeichen an den folgenden Block geklebt und Punktzeichen als eigenständige Einheit behalten werden.
  • Live-Statistikbereich – Schätzung der Tokenanzahl, Wortanzahl, Zeichenanzahl, Zeichen ohne Leerzeichen, Token pro Wort und Zeichen pro Token.
  • Läuft vollständig clientseitig – Nichts wird hochgeladen. Ihr Prompt bleibt auf Ihrem Gerät.
  • Code-basierte Heuristik – Wenn der Text wie Code aussieht, wird das Schätzverhältnis herabgestellt, um zu berücksichtigen, dass Code in der BPE stärker geteilt wird als Prosa.

Häufig gestellte Fragen

  1. Was ist ein Token in einem großen Sprachmodell?

    Ein Token ist die grundlegende Einheit, die ein Modell liest und erzeugt. Tokens werden durch ein Byte-Pair-Encoding (BPE) oder ein ähnliches Sub-Wort-Tokenizer erzeugt, das die häufigsten Zeichenfolgen aus den Trainingsdaten lernt und diese als gemeinsame Vokabel speichert. Ein einzelner Token kann ein vollständiges Wort, einen häufigen Vorsatz oder Nachsatz, einen Teil eines selteneren Wortes, ein einzelnes Emoji oder ein Punktzeichen sein. Für englische Prosa beträgt der Durchschnitt eines Tokens etwa vier Zeichen oder etwa drei Viertel eines Wortes. Code, URLs, JSON und nicht-lateinische Schriften erzeugen tendenziell mehr Tokens pro Zeichen, weil ihre Zeichenfolgen in der Vokabel des Tokenizers weniger häufig sind.

  2. Warum geben verschiedene Modelle unterschiedliche Tokenzahlen für denselben Text aus?

    Jede Modellfamilie wird mit ihrem eigenen Tokenizer und Vokabel trainiert. OpenAIs GPT-3.5 und GPT-4 verwenden das cl100k_base-Encoding, während GPT-4o und die o1-Serie das neuere o200k_base-Encoding verwenden. Die Claude-Modelle von Anthropic verwenden einen proprietären Anthropic-Tokenizer, und die Gemini-Modelle von Google verwenden einen SentencePiece-Tokenizer. Da die Vokabeln unterschiedlich sind, kann die gleiche Satz in verschiedenen Modellen zu unterschiedlichen Tokenzahlen führen, typischerweise innerhalb von zehn bis zwanzig Prozent für englische Prosa, aber bei Code oder nicht-englischen Texten deutlich divergierend.

  3. Was ist ein Kontextfenster und warum ist es wichtig?

    Das Kontextfenster ist die maximale Anzahl an Tokens, die ein Modell in einem einzigen Anruf lesen und erzeugen kann. Es umfasst den Systemprompt, den Benutzersatz, die vollständige Gesprächsgeschichte und die Antwort. Wenn Sie das Fenster überschreiten, wird älteres Kontext abgeschnitten, was leise Anweisungen oder Fakten löscht, die das Modell benötigte. Ein großes Fenster bietet Platz für lange Dokumente und lange Gespräche, aber Latenz und Kosten steigen mit der Anzahl der verarbeiteten Tokens. Selbst mit einem Fenster von zwei Millionen Tokens ist es normalerweise günstiger und schneller, die Prompts eng zu halten.

  4. Wie wird die Preisanalyse von LLM-APIs normalerweise berechnet?

    Die meisten Anbieter berechnen Eingabekosten und Ausgabekosten getrennt und nennen die Rate pro Million Tokens. Eingabetokens sind alles, was Sie dem Modell senden, einschließlich Systemprompts und Gesprächsgeschichte. Ausgabetokens sind alles, was das Modell erzeugt. Ausgabe ist fast immer teurer als Eingabe, weil die Erzeugung rechenintensiv ist. Einige Anbieter bieten auch eine Rabatt für abgespeicherte oder wiederverwendete Eingabetokens. Um die Gesamtkosten für einen Aufruf zu schätzen, multiplizieren Sie Ihre Eingabetokens mit der Eingabekostenrate und Ihre erwarteten Ausgabetokens mit der Ausgabekostenrate, teilen Sie beide durch eine Million und addieren Sie die beiden Zahlen zusammen.

  5. Warum ist meine Tokenanzahl nur eine Schätzung und keine genaue tiktoken-Zahl?

    Die Erstellung einer genauen BPE-Tokenanzahl erfordert, das vollständige Tokenizer-Vokabel in den Browser zu übertragen, was mehrere Megabyte von Gewichten pro Encoding erfordern kann. Dieses Tool verwendet eine Heuristik für die Zeichen pro Token, die für jede Modellfamilie kalibriert wurde, die eine Anzahl liefert, die innerhalb von einigen Prozent der tatsächlichen tiktoken- oder SentencePiece-Zahl für typische englische Prosa liegt und genügend genau ist, um Kostenabschätzungen und Kontextfensterplanung zu ermöglichen. Wenn Sie die genaue Anzahl für Rechnungsabrechnung benötigen, führen Sie den offiziellen Tokenizer des Anbieters gegen Ihren endgültigen Prompt aus, bevor Sie ihn senden.

Möchten Sie werbefrei genießen? Werde noch heute werbefrei

Erweiterungen installieren

IO-Tools zu Ihrem Lieblingsbrowser hinzufügen für sofortigen Zugriff und schnellere Suche

Zu Chrome-Erweiterung Zu Kantenerweiterung Zu Firefox-Erweiterung Zu Opera-Erweiterung

Die Anzeigetafel ist eingetroffen!

Anzeigetafel ist eine unterhaltsame Möglichkeit, Ihre Spiele zu verfolgen. Alle Daten werden in Ihrem Browser gespeichert. Weitere Funktionen folgen in Kürze!

ANZEIGE Entfernen?
ANZEIGE Entfernen?
ANZEIGE Entfernen?

Nachrichtenecke mit technischen Highlights

Beteiligen Sie sich

Helfen Sie uns, weiterhin wertvolle kostenlose Tools bereitzustellen

Kauf mir einen Kaffee
ANZEIGE Entfernen?