From d173ddac9e7c78567d7b279a6c7a8a74ddad9c7a Mon Sep 17 00:00:00 2001 From: marcus Date: Tue, 19 Dec 2023 15:06:49 -0800 Subject: [PATCH] allowed getting n_batch from llama_context in c api --- llama.cpp | 4 ++++ llama.h | 1 + 2 files changed, 5 insertions(+) diff --git a/llama.cpp b/llama.cpp index edd2910b3..f8a540773 100644 --- a/llama.cpp +++ b/llama.cpp @@ -9536,6 +9536,10 @@ int llama_n_ctx(const struct llama_context * ctx) { return ctx->cparams.n_ctx; } +int llama_n_batch(const struct llama_context * ctx) { + return ctx->cparams.n_batch; +} + enum llama_vocab_type llama_vocab_type(const struct llama_model * model) { return model->vocab.type; } diff --git a/llama.h b/llama.h index 15ab4f80e..62f02260d 100644 --- a/llama.h +++ b/llama.h @@ -315,6 +315,7 @@ extern "C" { LLAMA_API const struct llama_model * llama_get_model(const struct llama_context * ctx); LLAMA_API int llama_n_ctx (const struct llama_context * ctx); + LLAMA_API int llama_n_batch (const struct llama_context * ctx); LLAMA_API enum llama_vocab_type llama_vocab_type(const struct llama_model * model);