OpenAI Responses API प्रारूप का उपयोग करके स्ट्रीमिंग या नॉन-स्ट्रीमिंग प्रतिक्रिया बनाता है।
प्रमाणीकरण
Bearer टोकन। Authorization हेडर में अपनी API कुंजी को bearer टोकन के रूप में उपयोग करें। प्रारूप: Bearer <SUNRA_KEY>
अनुरोध
यह एंडपॉइंट एक ऑब्जेक्ट स्वीकार करता है।
प्रतिक्रिया उत्पन्न करने के लिए उपयोग किया जाने वाला मॉडल ID। उपलब्ध मॉडल sunra.ai/models पर देखें।
प्रतिक्रिया अनुरोध के लिए इनपुट। एक स्ट्रिंग या इनपुट आइटम की एक सरणी हो सकती है। दिखाएं properties (when array)
इनपुट आइटम का प्रकार। समर्थित मान: message, item_reference।
संदेश लेखक की भूमिका। समर्थित मान: user, assistant, system।
इनपुट संदेश की सामग्री। एक स्ट्रिंग या सामग्री भागों की सरणी हो सकती है।
आइटम का ID। वार्तालाप इतिहास में assistant संदेशों के लिए आवश्यक।
आइटम की स्थिति। वार्तालाप इतिहास में assistant संदेशों के लिए आवश्यक।
मॉडल के संदर्भ में पहले आइटम के रूप में एक सिस्टम (या डेवलपर) संदेश सम्मिलित करता है। input के साथ उपयोग करने पर, निर्देश इनपुट की शुरुआत में डाले जाते हैं।
यदि true पर सेट किया जाता है, तो प्रतिक्रिया server-sent events (SSE) का उपयोग करके स्ट्रीम की जाएगी।
आउटपुट टोकन की संख्या के लिए एक ऊपरी सीमा, जिसमें दृश्य आउटपुट टोकन और तर्क टोकन शामिल हैं।
0 और 2 के बीच सैंपलिंग तापमान। उच्च मान यादृच्छिकता बढ़ाते हैं।
न्यूक्लियस सैंपलिंग पैरामीटर। तापमान के साथ सैंपलिंग का एक विकल्प।
-2.0 और 2.0 के बीच की संख्या। सकारात्मक मान नए टोकन को पाठ में उनकी मौजूदा आवृत्ति के आधार पर दंडित करते हैं।
-2.0 और 2.0 के बीच की संख्या। सकारात्मक मान नए टोकन को इस आधार पर दंडित करते हैं कि वे पहले से पाठ में दिखाई दिए हैं या नहीं।
उन टूल की सरणी जिन्हें मॉडल कॉल कर सकता है। टूल का प्रकार। समर्थित मान: function, web_search_preview।
फ़ंक्शन का नाम। type function होने पर आवश्यक।
फ़ंक्शन पैरामीटर को परिभाषित करने वाला JSON Schema ऑब्जेक्ट।
सख्त स्कीमा पालन सक्षम है या नहीं।
टूल चयन व्यवहार को नियंत्रित करता है। समर्थित स्ट्रिंग मान: none, auto, required। एक विशेष फ़ंक्शन भी निर्दिष्ट कर सकते हैं।
मॉडल को समानांतर में टूल कॉल चलाने की अनुमति देनी है या नहीं।
टेक्स्ट प्रतिक्रिया प्रारूप के लिए कॉन्फ़िगरेशन। टेक्स्ट प्रारूप कॉन्फ़िगरेशन। प्रारूप प्रकार। समर्थित मान: text, json_object, json_schema।
प्रतिक्रिया प्रारूप का नाम। type json_schema होने पर आवश्यक।
JSON स्कीमा। type json_schema होने पर आवश्यक।
सख्त स्कीमा पालन सक्षम है या नहीं।
तर्क आउटपुट के लिए कॉन्फ़िगरेशन। तर्क पर प्रयास को सीमित करता है। समर्थित मान: low, medium, high।
बाद में पुनर्प्राप्ति के लिए उत्पन्न प्रतिक्रिया को संग्रहीत करना है या नहीं।
16 कुंजी-मान जोड़े का सेट जो प्रतिक्रिया से जोड़ा जा सकता है। कुंजियां अधिकतम 64 वर्णों वाली स्ट्रिंग हैं। मान अधिकतम 512 वर्णों वाली स्ट्रिंग हैं।
आपके अंतिम-उपयोगकर्ता का प्रतिनिधित्व करने वाला एक अद्वितीय पहचानकर्ता। अधिकतम 128 वर्ण।
प्रतिक्रिया
सफल प्रतिक्रिया ऑब्जेक्ट।
अद्वितीय प्रतिक्रिया पहचानकर्ता।
ऑब्जेक्ट प्रकार। हमेशा response।
प्रतिक्रिया बनाए जाने का Unix टाइमस्टैम्प (सेकंड में)।
प्रतिक्रिया की स्थिति। संभावित मान: completed, failed, in_progress, cancelled।
प्रतिक्रिया उत्पन्न करने के लिए उपयोग किया गया मॉडल।
मॉडल द्वारा उत्पन्न सामग्री आइटम की सरणी। आउटपुट आइटम का प्रकार। जैसे, message।
आउटपुट आइटम का अद्वितीय ID।
संदेश की स्थिति। जैसे, completed।
आउटपुट संदेश की सामग्री। सामग्री प्रकार। जैसे, output_text।
सामग्री के लिए एनोटेशन (जैसे, वेब खोज से उद्धरण)।
प्रतिक्रिया के लिए टोकन उपयोग आँकड़े। इनपुट टोकन का विवरण। कैश किए गए टोकन की संख्या।
उपयोग किया गया सैंपलिंग तापमान।
उपयोग किया गया न्यूक्लियस सैंपलिंग मान।
उपयोग की गई अधिकतम आउटपुट टोकन सेटिंग।
यदि जनरेशन विफल हुआ तो एक त्रुटि ऑब्जेक्ट।
curl -X POST https://api-llm.sunra.ai/v1/responses \
-H "Authorization: Bearer <SUNRA_KEY>" \
-H "Content-Type: application/json" \
-d '{
"model": "openai/gpt-4o",
"input": [
{
"type": "message",
"role": "user",
"content": "Hello, how are you?"
}
]
}'
{
"id" : "resp-abc123" ,
"object" : "response" ,
"created_at" : 1704067200 ,
"status" : "completed" ,
"model" : "openai/gpt-4o" ,
"output" : [
{
"type" : "message" ,
"id" : "msg_abc123" ,
"role" : "assistant" ,
"status" : "completed" ,
"content" : [
{
"type" : "output_text" ,
"text" : "Hello! I'm doing well, thank you for asking. How can I help you today?" ,
"annotations" : []
}
]
}
],
"temperature" : 1.0 ,
"top_p" : 1.0 ,
"max_output_tokens" : null ,
"usage" : {
"input_tokens" : 15 ,
"output_tokens" : 18 ,
"total_tokens" : 33 ,
"input_tokens_details" : {
"cached_tokens" : 0
},
"output_tokens_details" : {
"reasoning_tokens" : 0
}
},
"error" : null
}