curl -X POST https://api-llm.sunra.ai/v1/chat/completions \ -H "Authorization: Bearer <SUNRA_KEY>" \ -H "Content-Type: application/json" \ -d '{ "model": "openai/gpt-4o", "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the capital of France?" } ] }'
Copy
{ "id": "chatcmpl-abc123", "object": "chat.completion", "created": 1677652288, "model": "openai/gpt-4o", "choices": [ { "index": 0, "message": { "role": "assistant", "content": "The capital of France is Paris." }, "finish_reason": "stop", "logprobs": null } ], "system_fingerprint": "fp_44709d6fcb", "usage": { "prompt_tokens": 25, "completion_tokens": 8, "total_tokens": 33 }}
Chat
Create a chat completion
POST
/
v1
/
chat
/
completions
Copy
curl -X POST https://api-llm.sunra.ai/v1/chat/completions \ -H "Authorization: Bearer <SUNRA_KEY>" \ -H "Content-Type: application/json" \ -d '{ "model": "openai/gpt-4o", "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the capital of France?" } ] }'
Copy
{ "id": "chatcmpl-abc123", "object": "chat.completion", "created": 1677652288, "model": "openai/gpt-4o", "choices": [ { "index": 0, "message": { "role": "assistant", "content": "The capital of France is Paris." }, "finish_reason": "stop", "logprobs": null } ], "system_fingerprint": "fp_44709d6fcb", "usage": { "prompt_tokens": 25, "completion_tokens": 8, "total_tokens": 33 }}
Envía una solicitud para obtener una respuesta del modelo para la conversación de chat dada. Soporta modos streaming y no-streaming. Compatible con el formato de la API OpenAI Chat Completions.
El número máximo de tokens a generar en el completado. La longitud total de tokens de entrada y tokens generados está limitada por la longitud de contexto del modelo.
Temperatura de muestreo entre 0 y 2. Valores más altos como 0.8 hacen la salida más aleatoria, valores más bajos como 0.2 la hacen más enfocada y determinista.
Parámetro de muestreo por núcleo (0-1). Una alternativa al muestreo por temperatura donde el modelo considera los tokens con masa de probabilidad top_p.
Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens según su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad de que el modelo repita la misma línea textualmente.
Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens según si aparecen en el texto hasta el momento, aumentando la probabilidad de que el modelo hable sobre nuevos temas.
Indica si se deben devolver las log-probabilidades de los tokens de salida. Si es verdadero, devuelve las log-probabilidades de cada token de salida retornado en el contenido del mensaje.
Un entero entre 0 y 20 que especifica el número de tokens más probables a devolver en cada posición de token. logprobs debe estar establecido en true si se usa este parámetro.
Si se especifica, el sistema hará un esfuerzo óptimo para muestrear de forma determinista, de modo que las solicitudes repetidas con el mismo seed y parámetros deberían devolver el mismo resultado.
Controla qué herramienta (si alguna) es llamada por el modelo. none significa que el modelo no llamará a ninguna herramienta. auto significa que el modelo puede elegir entre generar un mensaje o llamar herramientas. required significa que el modelo debe llamar a una o más herramientas. También puede especificar una función particular mediante {"type": "function", "function": {"name": "my_function"}}.
Esta huella digital representa la configuración del backend con la que se ejecuta el modelo. Se puede usar con el parámetro seed para entender cuándo se han realizado cambios en el backend.
Copiar
curl -X POST https://api-llm.sunra.ai/v1/chat/completions \ -H "Authorization: Bearer <SUNRA_KEY>" \ -H "Content-Type: application/json" \ -d '{ "model": "openai/gpt-4o", "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the capital of France?" } ] }'
Copiar
{ "id": "chatcmpl-abc123", "object": "chat.completion", "created": 1677652288, "model": "openai/gpt-4o", "choices": [ { "index": 0, "message": { "role": "assistant", "content": "The capital of France is Paris." }, "finish_reason": "stop", "logprobs": null } ], "system_fingerprint": "fp_44709d6fcb", "usage": { "prompt_tokens": 25, "completion_tokens": 8, "total_tokens": 33 }}