llama2.c: comment out legacy "load from ggml model" logic
This commit is contained in:
parent
59f67c69a7
commit
8ad1e2d8d1
1 changed files with 22 additions and 20 deletions
|
@ -537,26 +537,28 @@ bool is_ggml_file(const char *filename) {
|
||||||
}
|
}
|
||||||
|
|
||||||
void load_vocab(const char *filename, Config *config, struct llama_vocab *vocab) {
|
void load_vocab(const char *filename, Config *config, struct llama_vocab *vocab) {
|
||||||
// heuristic to infer whether vocab is from ggml or from llama2.c vocabulary
|
#pragma message("TODO: implement reading vocabulary using gguf")
|
||||||
if (is_ggml_file(filename)) {
|
// // heuristic to infer whether vocab is from ggml or from llama2.c vocabulary
|
||||||
|
// if (is_ggml_file(filename)) {
|
||||||
struct llama_context_params llama_params = llama_context_default_params();
|
//
|
||||||
llama_params.vocab_only = true;
|
// struct llama_context_params llama_params = llama_context_default_params();
|
||||||
|
// llama_params.vocab_only = true;
|
||||||
struct llama_model * lmodel = llama_load_model_from_file(filename, llama_params);
|
//
|
||||||
struct llama_context * lctx = llama_new_context_with_model(lmodel, llama_params);
|
// struct llama_model * lmodel = llama_load_model_from_file(filename, llama_params);
|
||||||
|
// struct llama_context * lctx = llama_new_context_with_model(lmodel, llama_params);
|
||||||
const int n_vocab = llama_n_vocab(lctx);
|
//
|
||||||
vocab->id_to_token.resize(n_vocab);
|
// const int n_vocab = llama_n_vocab(lctx);
|
||||||
for (int i=0; i<n_vocab; ++i) {
|
// vocab->id_to_token.resize(n_vocab);
|
||||||
vocab->id_to_token[i].text = llama_token_get_text(lctx, i);
|
// for (int i=0; i<n_vocab; ++i) {
|
||||||
vocab->id_to_token[i].score = llama_token_get_score(lctx, i);
|
// vocab->id_to_token[i].text = llama_token_get_text(lctx, i);
|
||||||
vocab->id_to_token[i].type = llama_token_get_type(lctx, i);
|
// vocab->id_to_token[i].score = llama_token_get_score(lctx, i);
|
||||||
vocab->token_to_id.emplace(vocab->id_to_token[i].text, i);
|
// vocab->id_to_token[i].type = llama_token_get_type(lctx, i);
|
||||||
}
|
// vocab->token_to_id.emplace(vocab->id_to_token[i].text, i);
|
||||||
llama_free(lctx);
|
// }
|
||||||
llama_free_model(lmodel);
|
// llama_free(lctx);
|
||||||
} else { // assume llama2.c vocabulary
|
// llama_free_model(lmodel);
|
||||||
|
// } else
|
||||||
|
{ // assume llama2.c vocabulary
|
||||||
printf("Assuming llama2.c vocabulary since %s is not a ggml file\n", filename);
|
printf("Assuming llama2.c vocabulary since %s is not a ggml file\n", filename);
|
||||||
llama_file file(filename, "rb");
|
llama_file file(filename, "rb");
|
||||||
const int n_vocab = config->vocab_size;
|
const int n_vocab = config->vocab_size;
|
||||||
|
|
Loading…
Add table
Add a link
Reference in a new issue