मुख्य सामग्री पर जाएं
POST
/
v1
/
chat
/
completions
curl -X POST https://api-llm.sunra.ai/v1/chat/completions \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "messages": [
      {
        "role": "system",
        "content": "You are a helpful assistant."
      },
      {
        "role": "user",
        "content": "What is the capital of France?"
      }
    ]
  }'
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1677652288,
  "model": "openai/gpt-4o",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "The capital of France is Paris."
      },
      "finish_reason": "stop",
      "logprobs": null
    }
  ],
  "system_fingerprint": "fp_44709d6fcb",
  "usage": {
    "prompt_tokens": 25,
    "completion_tokens": 8,
    "total_tokens": 33
  }
}
दिए गए चैट वार्तालाप के लिए मॉडल प्रतिक्रिया का अनुरोध भेजता है। स्ट्रीमिंग और नॉन-स्ट्रीमिंग दोनों मोड का समर्थन करता है। OpenAI Chat Completions API प्रारूप के साथ संगत है।

प्रमाणीकरण

Authorization
string
आवश्यक
Bearer टोकन। Authorization हेडर में अपनी API कुंजी को bearer टोकन के रूप में उपयोग करें।प्रारूप: Bearer <SUNRA_KEY>

अनुरोध

यह एंडपॉइंट एक ऑब्जेक्ट स्वीकार करता है।
messages
object[]
आवश्यक
वार्तालाप के लिए संदेशों की सूची।
model
string
आवश्यक
पूर्णता के लिए उपयोग किया जाने वाला मॉडल। उपलब्ध मॉडल sunra.ai/models पर देखें।
stream
boolean
डिफ़ॉल्ट:false
यदि true पर सेट किया जाता है, तो आंशिक संदेश डेल्टा को server-sent events (SSE) के रूप में भेजा जाएगा।
max_tokens
integer
पूर्णता में उत्पन्न करने के लिए टोकन की अधिकतम संख्या। इनपुट टोकन और उत्पन्न टोकन की कुल लंबाई मॉडल की संदर्भ लंबाई द्वारा सीमित है।
temperature
number
डिफ़ॉल्ट:1
0 और 2 के बीच सैंपलिंग तापमान। 0.8 जैसे उच्च मान आउटपुट को अधिक यादृच्छिक बनाते हैं, 0.2 जैसे निम्न मान इसे अधिक केंद्रित और निर्धारक बनाते हैं।
top_p
number
डिफ़ॉल्ट:1
न्यूक्लियस सैंपलिंग पैरामीटर (0-1)। तापमान सैंपलिंग का एक विकल्प जहां मॉडल top_p प्रायिकता द्रव्यमान वाले टोकन पर विचार करता है।
frequency_penalty
number
डिफ़ॉल्ट:0
-2.0 और 2.0 के बीच की संख्या। सकारात्मक मान नए टोकन को उनकी मौजूदा आवृत्ति के आधार पर दंडित करते हैं, जिससे मॉडल की एक ही पंक्ति को शब्दशः दोहराने की संभावना कम हो जाती है।
presence_penalty
number
डिफ़ॉल्ट:0
-2.0 और 2.0 के बीच की संख्या। सकारात्मक मान नए टोकन को इस आधार पर दंडित करते हैं कि वे अब तक के पाठ में दिखाई दिए हैं या नहीं, जिससे मॉडल की नए विषयों पर बात करने की संभावना बढ़ जाती है।
stop
string | string[]
अधिकतम 4 अनुक्रम जहां API आगे टोकन उत्पन्न करना बंद कर देगा।
n
integer
डिफ़ॉल्ट:1
प्रत्येक इनपुट संदेश के लिए कितने चैट पूर्णता विकल्प उत्पन्न करने हैं।
logprobs
boolean
डिफ़ॉल्ट:false
आउटपुट टोकन की लॉग प्रायिकताएं लौटानी हैं या नहीं। यदि true है, तो संदेश की सामग्री में लौटाए गए प्रत्येक आउटपुट टोकन की लॉग प्रायिकताएं लौटाता है।
top_logprobs
integer
0 और 20 के बीच का एक पूर्णांक जो प्रत्येक टोकन स्थिति पर लौटाए जाने वाले सबसे संभावित टोकन की संख्या निर्दिष्ट करता है। इस पैरामीटर का उपयोग करने पर logprobs को true पर सेट करना आवश्यक है।
response_format
object
एक ऑब्जेक्ट जो मॉडल द्वारा आउटपुट किए जाने वाले प्रारूप को निर्दिष्ट करता है।
seed
integer
यदि निर्दिष्ट किया गया है, तो सिस्टम निर्धारक रूप से सैंपल करने का सर्वोत्तम प्रयास करेगा, ताकि समान seed और पैरामीटर वाले बार-बार के अनुरोध समान परिणाम लौटाएं।
tools
object[]
उन टूल की सूची जिन्हें मॉडल कॉल कर सकता है। वर्तमान में, केवल फ़ंक्शन को टूल के रूप में समर्थित किया जाता है।
tool_choice
string | object
नियंत्रित करता है कि मॉडल द्वारा कौन सा (यदि कोई) टूल कॉल किया जाता है। none का अर्थ है कि मॉडल कोई टूल कॉल नहीं करेगा। auto का अर्थ है कि मॉडल संदेश उत्पन्न करने या टूल कॉल करने के बीच चुन सकता है। required का अर्थ है कि मॉडल को एक या अधिक टूल कॉल करने होंगे। {"type": "function", "function": {"name": "my_function"}} के माध्यम से एक विशेष फ़ंक्शन भी निर्दिष्ट कर सकते हैं।
parallel_tool_calls
boolean
डिफ़ॉल्ट:true
टूल उपयोग के दौरान समानांतर फ़ंक्शन कॉलिंग सक्षम करनी है या नहीं।
user
string
आपके अंतिम-उपयोगकर्ता का प्रतिनिधित्व करने वाला एक अद्वितीय पहचानकर्ता, जो दुरुपयोग की निगरानी और पहचान में मदद कर सकता है।

प्रतिक्रिया

सफल चैट पूर्णता प्रतिक्रिया।
id
string
चैट पूर्णता के लिए एक अद्वितीय पहचानकर्ता।
object
string
ऑब्जेक्ट प्रकार। हमेशा chat.completion
created
integer
चैट पूर्णता बनाए जाने का Unix टाइमस्टैम्प (सेकंड में)।
model
string
चैट पूर्णता के लिए उपयोग किया गया मॉडल।
choices
object[]
चैट पूर्णता विकल्पों की सूची। यदि n 1 से अधिक है तो एक से अधिक हो सकते हैं।
usage
object
पूर्णता अनुरोध के लिए उपयोग आँकड़े।
system_fingerprint
string | null
यह फिंगरप्रिंट उस बैकएंड कॉन्फ़िगरेशन का प्रतिनिधित्व करता है जिसके साथ मॉडल चलता है। seed पैरामीटर के साथ उपयोग करके यह समझा जा सकता है कि बैकएंड में कब परिवर्तन किए गए हैं।
curl -X POST https://api-llm.sunra.ai/v1/chat/completions \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "messages": [
      {
        "role": "system",
        "content": "You are a helpful assistant."
      },
      {
        "role": "user",
        "content": "What is the capital of France?"
      }
    ]
  }'
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1677652288,
  "model": "openai/gpt-4o",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "The capital of France is Paris."
      },
      "finish_reason": "stop",
      "logprobs": null
    }
  ],
  "system_fingerprint": "fp_44709d6fcb",
  "usage": {
    "prompt_tokens": 25,
    "completion_tokens": 8,
    "total_tokens": 33
  }
}