diff --git a/otherarch/llama_v2.cpp b/otherarch/llama_v2.cpp index 9ba3b236b..ce7e2f771 100644 --- a/otherarch/llama_v2.cpp +++ b/otherarch/llama_v2.cpp @@ -38,7 +38,7 @@ #include #include -#define LLAMA_USE_SCRATCH +#define LLAMA_V2_USE_SCRATCH #define LLAMA_V2_MAX_SCRATCH_BUFFERS 16 // available llama models @@ -247,7 +247,7 @@ struct llama_v2_context { size_t buf_max_size[LLAMA_V2_MAX_SCRATCH_BUFFERS] = { 0 }; void use_buf(struct ggml_v2_context * ctx, int i) { -#if defined(LLAMA_USE_SCRATCH) +#if defined(LLAMA_V2_USE_SCRATCH) size_t last_size = 0; if (i == -1) { @@ -269,7 +269,7 @@ struct llama_v2_context { } size_t get_buf_max_mem(int i) const { -#if defined(LLAMA_USE_SCRATCH) +#if defined(LLAMA_V2_USE_SCRATCH) return buf_max_size[i]; #else (void) i;