Table of Contents

Konfiguration

Eine Konfiguration definiert, wie das KI-Framework mit Azure OpenAI kommuniziert und welche Parameter dabei verwendet werden. Sie können mehrere Konfigurationen parallel anlegen und verwalten, wobei pro Anwendungsfall (Use-Case) jeweils nur eine Konfiguration aktiv sein kann. Dies ermöglicht es Ihnen, verschiedene Einstellungen zu testen und die optimale Konfiguration für Ihr Szenario zu ermitteln.

Startpunkt: Um die folgenden Werte zu ergänzen öffnen Sie die "unitop KI-Einrichtung" über die Suche und öffnen Sie den entsprechenden Datensatz im Bereich "Konfigurationen".

Allgemein

Im Bereich "Allgemein" definieren Sie die grundlegenden Einstellungen einer KI-Konfiguration. Diese Felder legen fest, welches Azure OpenAI-Modell verwendet wird und wie die Konfiguration in Business Central identifiziert wird.

Feld Beschreibung Beispiel
Code Gibt einen eindeutigen Code für die Konfiguration an. SCHULUNG
Beschreibung Gibt die Beschreibung der Konfiguration an. Konfiguration für Schulung.
Bereitstellungscode Gibt den Bereitstellungscode an, der von dieser Konfiguration verwendet wird. GPT-5-Chat
Modell Code Gibt das KI-Modell an, das von dieser Konfiguration verwendet wird. GPT-5-Chat-2025-08-07
Hinweis

Hinweis für Entwickler: Sofern weitere Use-Cases entwickelt werden sind diese hier ebenso zwingend als Option zu ergänzen. Beachten Sie hierbei die verwendeten Variablen.

Azure KI Suche

Im Bereich "Azure KI Suche" hinterlegen Sie die erforderlichen Azure-OpenAI-Zugangsdaten und konfigurieren die Such- und Indexeinstellungen, um relevante Inhalte optimal in Ihre Use-Cases einzubinden. Die folgenden Einrichtungen müssen nur ausgefüllt werden, wenn Sie für Ihren Anwendungsfall die Azure AI Search für Retrieval Augmented Generation verwenden wollen.

Feld Beschreibung
Sucheinrichtungscode Gibt den Sucheinrichtungscode an, der von dieser Konfiguration verwendet wird.
Suchindexname Gibt den Suchindexnamen an, der von dieser Konfiguration verwendet wird.
Datei-Handling Konto Code Gibt das Datei-Handling-Konto an.

Anfrageparameter

Die Anfrageparameter steuern das Verhalten und die Ausgabequalität des KI-Modells. Durch die Anpassung dieser Parameter können Sie die KI-Antworten präzise auf Ihre Anforderungen abstimmen.

Parameter Beschreibung
Max. Tokens Definiert die maximale Länge der KI-Antwort in Tokens. Ein Token entspricht ungefähr 4 Zeichen. Höhere Werte ermöglichen ausführlichere Antworten, verbrauchen jedoch mehr Ressourcen und können die Antwortzeit verlängern. Hinweis: Verschiedene Modelle können unterschiedliche Parameter entgegennehmen, die unten aufgeführten Beispiele gelten für die Versionen kleiner GPT-5. Ab GPT-5 ist nur noch der Parameter "max. Tokens" relevant.
Temperature Steuert die Kreativität und Zufälligkeit der KI-Antworten. Werte zwischen 0 und 1 sind möglich. Niedrige Werte (z. B. 0.2) erzeugen präzise, konsistente Antworten, während höhere Werte (z. B. 0.8) kreativere und variantenreichere Ergebnisse liefern.
Top P Definiert die Wahrscheinlichkeitsschwelle für die Token-Auswahl (Nucleus Sampling). Werte zwischen 0 und 1 begrenzen die Auswahl auf die wahrscheinlichsten Token. Niedrigere Werte führen zu fokussierteren Antworten.
Frequency Penalty Reduziert die Wahrscheinlichkeit, dass bereits häufig verwendete Wörter erneut auftreten. Werte zwischen 0 und 2 sind möglich. Höhere Werte fördern vielfältigeren Wortschatz und vermeiden Wiederholungen.
Presence Penalty Reduziert die Wahrscheinlichkeit, dass bereits erwähnte Themen erneut aufgegriffen werden. Werte zwischen 0 und 2 sind möglich. Höhere Werte fördern die Einführung neuer Themen in der Antwort.
Stop Sequence Definiert Zeichenfolgen, bei deren Auftreten die KI-Generierung automatisch stoppt. Dies ermöglicht eine präzise Steuerung der Antwortlänge und -struktur.

Optionen der Anfrageparameter für die KI-Konfiguration:

  • Max. Tokens
  • Temperature
  • Top Probability
  • Logit Bias
  • Completion Count
  • Stream Response
  • Log Probabilities
  • Suffix
  • Echo Prompt
  • Stop Sequence
  • Presence Penalty
  • Frequency Penalty
  • Best Of
Hinweis

Sie sollten immer mindestens die beiden Parameter „Max. Tokens" und „Temperature" setzen. Wenn Sie in Ihren Tests feststellen, dass Antworten abgeschnitten sind, erhöhen Sie den Wert für "Max. Tokens".


Prompts und Variablen

Nach der Konfiguration dieser Parameter können Sie mit der Einrichtung spezifischer Prompts und Variablen fortfahren, um die KI-Funktionalität optimal auf Ihre Geschäftsprozesse abzustimmen.

Sofern Sie bereits Prompts und Variablen eingerichtet haben, können Sie über den gleichnamigen Menüpunkt Ihre Prompts dieser Konfiguration zuordnen.


Test der Konfiguration

  1. Führen Sie über den gleichnamigen Menüpunkt in der KI-Einrichtung einen Verbindungstest durch, um sicherzustellen, dass die Kommunikation mit Azure OpenAI funktioniert.

  2. Führen Sie einen initialen Test Ihres Anwendungsfalls durch, um die Qualität der KI-Antworten zu prüfen.

  3. Passen Sie bei Bedarf die Parameter der Konfiguration an, um optimale Ergebnisse zu erzielen.

Feinabstimmung der KI-Antworten

  1. Passen Sie bei Bedarf die Parameter Temperature und Max. Tokens an:

    • Erhöhen Sie die Temperature (z. B. von 0.3 auf 0.5), wenn die Antworten zu starr oder unkreativ erscheinen.
    • Verringern Sie die Temperature (z. B. von 0.5 auf 0.2), wenn die Antworten zu ungenau oder abschweifend sind.
    • Erhöhen Sie Max. Tokens, wenn Antworten abgeschnitten erscheinen.
  2. Vergleichen Sie verschiedene Konfigurationen:

    • Erstellen Sie mehrere Konfigurationen mit unterschiedlichen Parametern.
    • Testen Sie dieselben Anfragen mit verschiedenen Konfigurationen.
    • Wählen Sie die Konfiguration, die die besten Ergebnisse für Ihren Anwendungsfall liefert.