AI-Textkonfiguration
Um eine neue AI-Textkonfiguration anzulegen, wählen Sie den Menüpunkt Konfigurationen und klicken anschliessend auf das -Symbol:

Danach wählen Sie aus dem Auswahlmenü den Typ AI-Textkonfiguration aus, vergeben einen Namen und klicken auf Weiter:

Auf der folgenden Seite können Sie die Einstellungen für die AI-Textkonfiguration vornehmen:

Die Daten für die Parameter Endpunkt, API-Key und Deployment entnehmen Sie den Einstellungen Ihres LLM-Providers.
Temperatur
Die Temperatur steuert, wie kreativ und unvorhersagbar die Antworten des AI-Systems sind.
Niedrige Temperatur (0.1 - 0.3):
Das System wählt die wahrscheinlichsten Wörter
Antworten sind konsistent und vorhersagbar
Gut für faktische Fragen oder wenn Sie präzise Antworten benötigen
Mittlere Temperatur (0.4 - 0.9):
Das System wählt auch weniger wahrscheinliche Wörter.
Die Antworten sind kreativer und abwechslungsreicher.
Gut geeignet für kreatives Schreiben oder Brainstorming.
Hohe Temperatur (1.0 - 2.0):
Das System wird noch kreativer und wählt auch unwahrscheinliche Wörter.
Für Experimente empfohlen, aber nicht für produktive Anwendungen vorgesehen.
Praktische Anwendung
Für Zusammenfassungen oder Analysen sind niedrige Temperaturen am besten geeignet.
Zum Beispiel für die Klassifizierung von E-Mails.
Für Geschichten oder kreative Texte wählen Sie mittlere Temperaturen.
Zum Beispiel für Antworten, die an den Chatbot übergeben werden.
Der Standardwert liegt meist zwischen 0.5 - 0.7.
Bei sehr hohen Temperaturen (1.5 - 2.0) können die Antworten unzusammenhängend oder fehlerhaft werden.
Maximale Token
Mit dieser Einstellung legen Sie fest, wie viele Tokens maximal bei einer Antwort generiert werden sollen. Dies soll verhindern, dass ein Modell zu lange Texte erstellt und dabei unnötig Token verbraucht.
In der deutschen Sprache sind ein Token ca. 0.6 - 0.8 Wörter. Ein Text, der aus 100 Wörtern besteht, würde somit ca. 125 - 170 Token verbrauchen.
Zuletzt aktualisiert