From 7e7ff2bc9a8697baf6ae2a5198629092a1fc24de Mon Sep 17 00:00:00 2001 From: Borislav Stanimirov Date: Fri, 12 Jul 2024 19:52:23 +0300 Subject: [PATCH] llama: fix some return values to match hparams types --- include/llama.h | 8 ++++---- src/llama.cpp | 12 ++++++------ 2 files changed, 10 insertions(+), 10 deletions(-) diff --git a/include/llama.h b/include/llama.h index 3970c3aeb..72f0c1029 100644 --- a/include/llama.h +++ b/include/llama.h @@ -460,10 +460,10 @@ extern "C" { LLAMA_API enum llama_vocab_type llama_vocab_type (const struct llama_model * model); LLAMA_API enum llama_rope_type llama_rope_type (const struct llama_model * model); - LLAMA_API int32_t llama_n_vocab (const struct llama_model * model); - LLAMA_API int32_t llama_n_ctx_train(const struct llama_model * model); - LLAMA_API int32_t llama_n_embd (const struct llama_model * model); - LLAMA_API int32_t llama_n_layer (const struct llama_model * model); + LLAMA_API uint32_t llama_n_vocab (const struct llama_model * model); + LLAMA_API uint32_t llama_n_ctx_train(const struct llama_model * model); + LLAMA_API uint32_t llama_n_embd (const struct llama_model * model); + LLAMA_API uint32_t llama_n_layer (const struct llama_model * model); // Get the model's RoPE frequency scaling factor LLAMA_API float llama_rope_freq_scale_train(const struct llama_model * model); diff --git a/src/llama.cpp b/src/llama.cpp index 59b76a6d8..99caff1eb 100644 --- a/src/llama.cpp +++ b/src/llama.cpp @@ -17436,7 +17436,7 @@ void llama_sample_apply_guidance( llama_log_softmax(logits, n_vocab); llama_log_softmax(logits_guidance, n_vocab); - for (int i = 0; i < n_vocab; ++i) { + for (uint32_t i = 0; i < n_vocab; ++i) { auto & l = logits[i]; const auto & g = logits_guidance[i]; @@ -19398,19 +19398,19 @@ enum llama_pooling_type llama_pooling_type(const struct llama_context * ctx) { return ctx->cparams.pooling_type; } -int32_t llama_n_vocab(const struct llama_model * model) { +uint32_t llama_n_vocab(const struct llama_model * model) { return model->hparams.n_vocab; } -int32_t llama_n_ctx_train(const struct llama_model * model) { +uint32_t llama_n_ctx_train(const struct llama_model * model) { return model->hparams.n_ctx_train; } -int32_t llama_n_embd(const struct llama_model * model) { +uint32_t llama_n_embd(const struct llama_model * model) { return model->hparams.n_embd; } -int32_t llama_n_layer(const struct llama_model * model) { +uint32_t llama_n_layer(const struct llama_model * model) { return model->hparams.n_layer; } @@ -21160,7 +21160,7 @@ int32_t llama_token_to_piece(const struct llama_model * model, llama_token token } } - if (0 <= token && token < llama_n_vocab(model)) { + if (0 <= token && token < (llama_token)llama_n_vocab(model)) { const std::string & token_text = model->vocab.id_to_token[token].text; switch (llama_vocab_get_type(model->vocab)) { case LLAMA_VOCAB_TYPE_WPM: