llama : cache llama_token_to_piece
ggml-ci
This commit is contained in:
parent
fb76ec31a9
commit
9964cd02f7
2 changed files with 94 additions and 71 deletions
4
llama.h
4
llama.h
|
@ -424,8 +424,8 @@ extern "C" {
|
|||
|
||||
LLAMA_API enum llama_pooling_type llama_pooling_type(const struct llama_context * ctx);
|
||||
|
||||
LLAMA_API enum llama_vocab_type llama_vocab_type (const struct llama_model * model);
|
||||
LLAMA_API enum llama_rope_type llama_rope_type (const struct llama_model * model);
|
||||
LLAMA_API enum llama_vocab_type llama_vocab_type (const struct llama_model * model);
|
||||
LLAMA_API enum llama_rope_type llama_rope_type (const struct llama_model * model);
|
||||
|
||||
LLAMA_API int32_t llama_n_vocab (const struct llama_model * model);
|
||||
LLAMA_API int32_t llama_n_ctx_train(const struct llama_model * model);
|
||||
|
|
Loading…
Add table
Add a link
Reference in a new issue