server : recognize cache_prompt parameter in OAI API

This commit is contained in:
Georgi Gerganov 2023-12-06 10:28:31 +02:00
parent da5eaef1f3
commit ef455cb1e0
No known key found for this signature in database
GPG key ID: 449E073F9DC10735

View file

@ -2387,6 +2387,7 @@ json oaicompat_completion_params_parse(
// Map OpenAI parameters to llama.cpp parameters // Map OpenAI parameters to llama.cpp parameters
llama_params["prompt"] = format_chatml(body["messages"]); // OpenAI 'messages' to llama.cpp 'prompt' llama_params["prompt"] = format_chatml(body["messages"]); // OpenAI 'messages' to llama.cpp 'prompt'
llama_params["cache_prompt"] = json_value(body, "cache_prompt", false);
llama_params["temperature"] = json_value(body, "temperature", 0.8); llama_params["temperature"] = json_value(body, "temperature", 0.8);
llama_params["top_k"] = json_value(body, "top_k", 40); llama_params["top_k"] = json_value(body, "top_k", 40);
llama_params["top_p"] = json_value(body, "top_p", 0.95); llama_params["top_p"] = json_value(body, "top_p", 0.95);