# AI-Textkonfiguration

Um eine neue AI-Textkonfiguration anzulegen, wählen Sie den Menüpunkt *Konfigurationen* und klicken anschliessend auf das <img src="https://2388870224-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F8dtLKppxVG0mxVBzNFs6%2Fuploads%2FOd2lmULy1GFVQ4yPs7wU%2Fprojekte-plus-symbol.png?alt=media&#x26;token=9941d613-faf3-446a-be0d-a46c684b4e2a" alt="" data-size="line">-Symbol:

<figure><img src="https://2388870224-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F8dtLKppxVG0mxVBzNFs6%2Fuploads%2FDhFdpyxuAcbUXgpfiJQA%2Fconfigurations-01.png?alt=media&#x26;token=4000f664-2bd1-4807-8f47-9a0e73a35826" alt="" width="563"><figcaption><p>Erstellen einer neuen Konfiguration</p></figcaption></figure>

Danach wählen Sie aus dem Auswahlmenü den Typ *AI-Textkonfiguration* aus, vergeben einen Namen  und wählen aus, um welchen LLM Provider es sich handelt. Danach klicken sie auf *Weiter*.

<figure><img src="https://2388870224-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F8dtLKppxVG0mxVBzNFs6%2Fuploads%2FdIUxYNhlQJi2U9PSvIy2%2Fconfiguration-ai-text-01.png?alt=media&#x26;token=05391076-5de3-4b6c-ba14-fdd9432095e2" alt="" width="461"><figcaption><p>Neue AI-Textkonfiguration</p></figcaption></figure>

## LLM Provider

Sie können aus folgenden LLM Provider wählen:

### Microsoft OpenAI

Modelle der Reihe GPT-4 und GPT-5 von OpenAI können direkt bei Microsoft gehostet werden. Dadurch bleiben die Daten in der Zone, in der sich auch das Modell befindet. Diese bietet höchste Datensicherheit und garantiert eine Verarbeitung und Speicherung in der Zone des Modells, zum Beispiel *Switzerland-North*. Die Zonen werden von Microsoft vorgegeben.

### Google Gemini

Google Gemini Modelle werden ebenfalls in unterschiedlichen Zonen in Europa betrieben.

### OpenAI

Mit diesem Provider können Sie OpenAI Modelle direkt benutzen. Es gibt keine Sicherstellung oder Auswahl, wo die Daten gespeichert oder verarbeitet werden.

## Detaileinstellungen

Auf der folgenden Seite können Sie die Einstellungen für die AI-Textkonfiguration vornehmen:

<figure><img src="https://2388870224-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F8dtLKppxVG0mxVBzNFs6%2Fuploads%2FoejtS0c7DBF9YWAKCwIm%2Fconfiguration-ai-text-02.png?alt=media&#x26;token=0827369d-f1a9-4070-9911-59056e53d0d4" alt="" width="563"><figcaption><p>Detaileinstellungen der AI-Textkonfiguration</p></figcaption></figure>

Die Daten für die Parameter **Endpunkt**, **API-Key** und **Deployment** entnehmen Sie den Einstellungen Ihres LLM-Providers.

### Reasoning Modelle

Wenn es sich um ein Modell handelt, welches Reasoning unterstütz, **muss** die Option *Das ist ein Reasoning-Modell* aktiviert werden. Es ist dann möglich, den Reasoning Effort festzulegen. Dabei kann aus folgenden Optionen gewählt werden:

* None
* Low
* Medium
* High
* X-High

Der Parameter Reasoning Effort legt fest, wie viel Rechenaufwand das Modell für gezieltes, schrittweises Denken einsetzt: Höhere Werte führen zu gründlicherer Problemlösung, während niedrigere Werte schnellere und knappere Antworten liefern.

{% hint style="info" %}
Modelle der Reihe GPT-5 sind fast ausschliesslich Reasoning-Modelle. Bitte informieren Sie sich auf den Seiten von OpenAI.
{% endhint %}

### Temperatur

Die Temperatur steuert, wie kreativ und unvorhersagbar die Antworten des AI-Systems sind.

#### Niedrige Temperatur (0.1 - 0.3):

* Das System wählt die wahrscheinlichsten Wörter
* Antworten sind konsistent und vorhersagbar
* Gut für faktische Fragen oder wenn Sie präzise Antworten benötigen

#### Mittlere Temperatur (0.4 - 0.9):

* Das System wählt auch weniger wahrscheinliche Wörter.
* Die Antworten sind kreativer und abwechslungsreicher.
* Gut geeignet für kreatives Schreiben oder Brainstorming.

#### Hohe Temperatur (1.0 - 2.0):

* Das System wird noch kreativer und wählt auch unwahrscheinliche Wörter.
* Für Experimente empfohlen, aber nicht für produktive Anwendungen vorgesehen.

#### Praktische Anwendung

* Für Zusammenfassungen oder Analysen sind niedrige Temperaturen am besten geeignet.
  * Zum Beispiel für die Klassifizierung von E-Mails.
* Für Geschichten oder kreative Texte wählen Sie mittlere Temperaturen.
  * Zum Beispiel für Antworten, die an den Chatbot übergeben werden.
* Der Standardwert liegt meist zwischen 0.5 - 0.7.

{% hint style="danger" %}
Bei sehr hohen Temperaturen (1.5 - 2.0) können die Antworten unzusammenhängend oder fehlerhaft werden.
{% endhint %}

### Maximale Token

Mit dieser Einstellung legen Sie fest, wie viele Tokens maximal bei einer Antwort generiert werden sollen. Dies soll verhindern, dass ein Modell zu lange Texte erstellt und dabei unnötig Token verbraucht.

In der deutschen Sprache sind ein Token **ca. 0.6 - 0.8 Wörter**. Ein Text, der aus 100 Wörtern besteht, würde somit ca. 125 - 170 Token verbrauchen.
