Added llama_supports_rpc
function to test for RPC support at runtime.
This commit is contained in:
parent
3e2ee44315
commit
6071787338
2 changed files with 9 additions and 0 deletions
|
@ -15937,6 +15937,14 @@ bool llama_supports_mlock(void) {
|
|||
return llama_mlock::SUPPORTED;
|
||||
}
|
||||
|
||||
bool llama_supports_rpc(void) {
|
||||
#if defined(GGML_USE_RPC)
|
||||
return true;
|
||||
#else
|
||||
return false;
|
||||
#endif
|
||||
}
|
||||
|
||||
bool llama_supports_gpu_offload(void) {
|
||||
#if defined(GGML_USE_CUDA) || defined(GGML_USE_METAL) || defined(GGML_USE_VULKAN) || \
|
||||
defined(GGML_USE_SYCL) || defined(GGML_USE_KOMPUTE) || defined(GGML_USE_RPC)
|
||||
|
|
1
llama.h
1
llama.h
|
@ -430,6 +430,7 @@ extern "C" {
|
|||
|
||||
LLAMA_API bool llama_supports_mmap (void);
|
||||
LLAMA_API bool llama_supports_mlock (void);
|
||||
LLAMA_API bool llama_supports_rpc (void);
|
||||
LLAMA_API bool llama_supports_gpu_offload(void);
|
||||
|
||||
LLAMA_API const struct llama_model * llama_get_model(const struct llama_context * ctx);
|
||||
|
|
Loading…
Add table
Add a link
Reference in a new issue