allowed getting n_batch from llama_context in c api
This commit is contained in:
parent
328b83de23
commit
d173ddac9e
2 changed files with 5 additions and 0 deletions
|
@ -9536,6 +9536,10 @@ int llama_n_ctx(const struct llama_context * ctx) {
|
|||
return ctx->cparams.n_ctx;
|
||||
}
|
||||
|
||||
int llama_n_batch(const struct llama_context * ctx) {
|
||||
return ctx->cparams.n_batch;
|
||||
}
|
||||
|
||||
enum llama_vocab_type llama_vocab_type(const struct llama_model * model) {
|
||||
return model->vocab.type;
|
||||
}
|
||||
|
|
1
llama.h
1
llama.h
|
@ -315,6 +315,7 @@ extern "C" {
|
|||
LLAMA_API const struct llama_model * llama_get_model(const struct llama_context * ctx);
|
||||
|
||||
LLAMA_API int llama_n_ctx (const struct llama_context * ctx);
|
||||
LLAMA_API int llama_n_batch (const struct llama_context * ctx);
|
||||
|
||||
LLAMA_API enum llama_vocab_type llama_vocab_type(const struct llama_model * model);
|
||||
|
||||
|
|
Loading…
Add table
Add a link
Reference in a new issue