LLM Tokenverbrauch
Mit diesem Plugin können Sie den aktuellen Tokenverbrauch für das laufende Monat einsehen. Die Auswertung bezieht sich automatisch immer auf den aktuellen Monat. Eine Auswahl oder Festlegung eines individuellen Zeitraums ist nicht möglich.

Parameter "AI-Umgebung"
Dieser optionale Parameter ermöglicht es Ihnen, die Token-Auswertung auf eine bestimmte AI-Umgebung zu beschränken (Text oder Audio).
Wenn keine AI-Umgebung ausgewählt wird, werden die Tokens für alle verfügbaren AI-Umgebungen berücksichtigt.
Parameter "Tokens gesamt"
Zeigt die Gesamtanzahl der im aktuellen Monat verbrauchten Tokens an.
Parameter "Input-Tokens"
Gibt die Anzahl der im aktuellen Monat verbrauchten Input-Tokens an. Je mehr Text an das LLM (Large Language Model) gesendet wird, desto höher ist dieser Wert.
In der Regel liegt die Anzahl der Input-Tokens deutlich über der der Output-Tokens, da der gesamte übermittelte Kontext (einschliesslich Anfragen, Anweisungen und zusätzlicher Daten) in diese Zählung einfliesst.
Parameter "Output-Tokens"
Zeigt die Anzahl der im aktuellen Monat verbrauchten Output-Tokens an. Dazu zählen alle Tokens, die durch die Antworten des Modells erzeugt werden.