Added llama_supports_rpc function to test for RPC support at runtime.

This commit is contained in:
Martin Evans 2024-05-30 16:02:22 +01:00
parent 3e2ee44315
commit 6071787338
2 changed files with 9 additions and 0 deletions

View file

@ -15937,6 +15937,14 @@ bool llama_supports_mlock(void) {
return llama_mlock::SUPPORTED;
}
bool llama_supports_rpc(void) {
#if defined(GGML_USE_RPC)
return true;
#else
return false;
#endif
}
bool llama_supports_gpu_offload(void) {
#if defined(GGML_USE_CUDA) || defined(GGML_USE_METAL) || defined(GGML_USE_VULKAN) || \
defined(GGML_USE_SYCL) || defined(GGML_USE_KOMPUTE) || defined(GGML_USE_RPC)

View file

@ -430,6 +430,7 @@ extern "C" {
LLAMA_API bool llama_supports_mmap (void);
LLAMA_API bool llama_supports_mlock (void);
LLAMA_API bool llama_supports_rpc (void);
LLAMA_API bool llama_supports_gpu_offload(void);
LLAMA_API const struct llama_model * llama_get_model(const struct llama_context * ctx);