Membuat respons streaming atau non-streaming menggunakan format OpenAI Responses API.
Autentikasi
Bearer token. Gunakan kunci API Anda sebagai bearer token di header Authorization. Format: Bearer <SUNRA_KEY>
Permintaan
Endpoint ini menerima sebuah objek.
ID model yang digunakan untuk menghasilkan respons. Jelajahi model yang tersedia di sunra.ai/models .
Input untuk permintaan respons. Dapat berupa string atau array item input. Tampilkan properties (when array)
Tipe item input. Nilai yang didukung: message, item_reference.
Peran penulis pesan. Nilai yang didukung: user, assistant, system.
Konten pesan input. Dapat berupa string atau array bagian konten.
ID item. Diperlukan untuk pesan assistant dalam riwayat percakapan.
Status item. Diperlukan untuk pesan assistant dalam riwayat percakapan.
Menyisipkan pesan sistem (atau pengembang) sebagai item pertama dalam konteks model. Ketika digunakan dengan input, instruksi disisipkan di awal input.
Jika diatur ke true, respons akan di-streaming menggunakan server-sent events (SSE).
Batas atas untuk jumlah token output, termasuk token output yang terlihat dan token penalaran.
Temperatur sampling antara 0 dan 2. Nilai lebih tinggi meningkatkan keacakan.
Parameter nucleus sampling. Alternatif untuk sampling dengan temperatur.
Angka antara -2.0 dan 2.0. Nilai positif menghukum token baru berdasarkan frekuensi kemunculannya dalam teks.
Angka antara -2.0 dan 2.0. Nilai positif menghukum token baru berdasarkan apakah mereka sudah muncul dalam teks.
Array alat yang dapat dipanggil oleh model. Tipe alat. Nilai yang didukung: function, web_search_preview.
Nama fungsi. Diperlukan ketika type adalah function.
Objek JSON Schema yang mendefinisikan parameter fungsi.
Apakah kepatuhan skema yang ketat diaktifkan.
Mengontrol perilaku pemilihan alat. Nilai string yang didukung: none, auto, required. Dapat juga menentukan fungsi tertentu.
Apakah mengizinkan model menjalankan panggilan alat secara paralel.
Konfigurasi untuk format respons teks. Konfigurasi format teks. Tipe format. Nilai yang didukung: text, json_object, json_schema.
Nama format respons. Diperlukan ketika type adalah json_schema.
JSON schema. Diperlukan ketika type adalah json_schema.
Apakah kepatuhan skema yang ketat diaktifkan.
Konfigurasi untuk output penalaran. Membatasi upaya pada penalaran. Nilai yang didukung: low, medium, high.
Apakah menyimpan respons yang dihasilkan untuk pengambilan nanti.
Set 16 pasangan kunci-nilai yang dapat dilampirkan ke respons. Kunci adalah string dengan maksimal 64 karakter. Nilai adalah string dengan maksimal 512 karakter.
Pengenal unik yang mewakili pengguna akhir Anda. Maksimal 128 karakter.
Respons
Objek respons yang berhasil.
Tipe objek. Selalu response.
Timestamp Unix (dalam detik) kapan respons dibuat.
Status respons. Nilai yang mungkin: completed, failed, in_progress, cancelled.
Model yang digunakan untuk menghasilkan respons.
Array item konten yang dihasilkan oleh model. Tipe item output. Misalnya, message.
Status pesan. Misalnya, completed.
Konten pesan output. Tipe konten. Misalnya, output_text.
Konten teks yang dihasilkan.
Anotasi untuk konten (misalnya, kutipan dari pencarian web).
Statistik penggunaan token untuk respons. Rincian token input. Jumlah token yang di-cache.
Temperatur sampling yang digunakan.
Nilai nucleus sampling yang digunakan.
Pengaturan token output maksimum yang digunakan.
Objek error jika pembuatan gagal.
curl -X POST https://api-llm.sunra.ai/v1/responses \
-H "Authorization: Bearer <SUNRA_KEY>" \
-H "Content-Type: application/json" \
-d '{
"model": "openai/gpt-4o",
"input": [
{
"type": "message",
"role": "user",
"content": "Hello, how are you?"
}
]
}'
{
"id" : "resp-abc123" ,
"object" : "response" ,
"created_at" : 1704067200 ,
"status" : "completed" ,
"model" : "openai/gpt-4o" ,
"output" : [
{
"type" : "message" ,
"id" : "msg_abc123" ,
"role" : "assistant" ,
"status" : "completed" ,
"content" : [
{
"type" : "output_text" ,
"text" : "Hello! I'm doing well, thank you for asking. How can I help you today?" ,
"annotations" : []
}
]
}
],
"temperature" : 1.0 ,
"top_p" : 1.0 ,
"max_output_tokens" : null ,
"usage" : {
"input_tokens" : 15 ,
"output_tokens" : 18 ,
"total_tokens" : 33 ,
"input_tokens_details" : {
"cached_tokens" : 0
},
"output_tokens_details" : {
"reasoning_tokens" : 0
}
},
"error" : null
}