add llama API functions to get grouped-query-attention n_head parameter 'n_head_kv'.
This commit is contained in:
parent
d7aade7d8a
commit
833a56c144
2 changed files with 17 additions and 7 deletions
|
@ -5669,6 +5669,10 @@ int llama_n_head(const struct llama_context * ctx) {
|
|||
return ctx->model.hparams.n_head;
|
||||
}
|
||||
|
||||
int llama_n_head_kv(const struct llama_context * ctx) {
|
||||
return ctx->model.hparams.n_head_kv;
|
||||
}
|
||||
|
||||
int llama_n_rot(const struct llama_context * ctx) {
|
||||
return ctx->model.hparams.n_rot;
|
||||
}
|
||||
|
@ -5701,6 +5705,10 @@ int llama_model_n_head(const struct llama_model * model) {
|
|||
return model->hparams.n_head;
|
||||
}
|
||||
|
||||
int llama_model_n_head_kv(const struct llama_model * model) {
|
||||
return model->hparams.n_head_kv;
|
||||
}
|
||||
|
||||
int llama_model_n_rot(const struct llama_model * model) {
|
||||
return model->hparams.n_rot;
|
||||
}
|
||||
|
|
16
llama.h
16
llama.h
|
@ -245,13 +245,14 @@ extern "C" {
|
|||
LLAMA_API bool llama_mmap_supported (void);
|
||||
LLAMA_API bool llama_mlock_supported(void);
|
||||
|
||||
LLAMA_API int llama_n_vocab(const struct llama_context * ctx);
|
||||
LLAMA_API int llama_n_ctx (const struct llama_context * ctx);
|
||||
LLAMA_API int llama_n_embd (const struct llama_context * ctx);
|
||||
LLAMA_API int llama_n_ff (const struct llama_context * ctx);
|
||||
LLAMA_API int llama_n_head (const struct llama_context * ctx);
|
||||
LLAMA_API int llama_n_rot (const struct llama_context * ctx);
|
||||
LLAMA_API int llama_n_layer(const struct llama_context * ctx);
|
||||
LLAMA_API int llama_n_vocab (const struct llama_context * ctx);
|
||||
LLAMA_API int llama_n_ctx (const struct llama_context * ctx);
|
||||
LLAMA_API int llama_n_embd (const struct llama_context * ctx);
|
||||
LLAMA_API int llama_n_ff (const struct llama_context * ctx);
|
||||
LLAMA_API int llama_n_head (const struct llama_context * ctx);
|
||||
LLAMA_API int llama_n_head_kv(const struct llama_context * ctx);
|
||||
LLAMA_API int llama_n_rot (const struct llama_context * ctx);
|
||||
LLAMA_API int llama_n_layer (const struct llama_context * ctx);
|
||||
|
||||
LLAMA_API enum llama_vocab_type llama_vocab_type(const struct llama_context * ctx);
|
||||
|
||||
|
@ -260,6 +261,7 @@ extern "C" {
|
|||
LLAMA_API int llama_model_n_embd (const struct llama_model * model);
|
||||
LLAMA_API int llama_model_n_ff (const struct llama_model * model);
|
||||
LLAMA_API int llama_model_n_head (const struct llama_model * model);
|
||||
LLAMA_API int llama_model_n_head_kv(const struct llama_model * model);
|
||||
LLAMA_API int llama_model_n_rot (const struct llama_model * model);
|
||||
LLAMA_API int llama_model_n_layer(const struct llama_model * model);
|
||||
|
||||
|
|
Loading…
Add table
Add a link
Reference in a new issue