Use this file to discover all available pages before exploring further.
Sendet eine Anfrage für eine Modellantwort für die gegebene Chat-Konversation. Unterstützt sowohl Streaming- als auch Nicht-Streaming-Modi. Kompatibel mit dem OpenAI Chat Completions API-Format.
Sampling-Temperatur zwischen 0 und 2. Höhere Werte wie 0.8 machen die Ausgabe zufälliger, niedrigere Werte wie 0.2 machen sie fokussierter und deterministischer.
Nucleus-Sampling-Parameter (0-1). Eine Alternative zum Temperatur-Sampling, bei der das Modell die Tokens mit der top_p-Wahrscheinlichkeitsmasse berücksichtigt.
Zahl zwischen -2.0 und 2.0. Positive Werte bestrafen neue Tokens basierend auf ihrer bestehenden Häufigkeit im bisherigen Text und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wörtlich wiederholt.
Zahl zwischen -2.0 und 2.0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie im bisherigen Text vorkommen, und erhöhen die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.