cont : initial implementation sketch [no ci]

This commit is contained in:
Georgi Gerganov 2024-09-03 14:33:10 +03:00
parent 5116b3681c
commit cf4dd10ea5
No known key found for this signature in database
GPG key ID: 449E073F9DC10735
4 changed files with 289 additions and 6 deletions

View file

@ -62,7 +62,7 @@ extern "C" {
struct llama_model;
struct llama_context;
struct llama_sampler;
struct llama_sampling;
struct llama_sampling; // TODO: remove before merge
typedef int32_t llama_pos;
typedef int32_t llama_token;
@ -414,7 +414,8 @@ extern "C" {
} llama_sampling_params;
typedef struct llama_sampler_params {
bool dummy;
uint32_t seed; // the seed used to initialize the rng of the sampler
// TODO: add type of sampler: greedy, dist, mirostat, etc.
} llama_sampler_params;
@ -1175,10 +1176,11 @@ extern "C" {
typedef void * llama_constraint_context_t;
struct llama_constraint_i {
void (*accept)(struct llama_constraint * cnstr, llama_token token);
void (*accept)(struct llama_constraint * cnstr, llama_token token); // can be NULL
void (*apply) (struct llama_constraint * cnstr, llama_token_data_array * candidates);
void (*reset) (struct llama_constraint * cnstr); // e.g. for grammar and penalty constraints
void (*free) (struct llama_constraint * cnstr);
void (*reset) (struct llama_constraint * cnstr); // e.g. for grammar and penalty constraints, can be NULL
void (*copy) (struct llama_constraint * cnstr, const struct llama_constraint * cnstr_src);
void (*free) (struct llama_constraint * cnstr); // can be NULL
// TODO: API for internal libllama usage for appending the sampling to an existing ggml_cgraph
//void (*apply_ggml) (struct llama_constraint * cnstr, ...);
@ -1192,10 +1194,13 @@ extern "C" {
LLAMA_API struct llama_constraint * llama_constraint_init_top_k(int32_t k, int32_t min_keep);
LLAMA_API struct llama_constraint * llama_constraint_init_top_p(float p, int32_t min_keep);
// ...
// do not call if used with llama_sampler_add_constraint
LLAMA_API void llama_constraint_free(struct llama_constraint * cnstr);
LLAMA_API void llama_constraint_accept(struct llama_constraint * cnstr, llama_token token);
LLAMA_API void llama_constraint_apply (struct llama_constraint * cnstr, llama_token_data_array * candidates);
LLAMA_API void llama_constraint_reset (struct llama_constraint * cnstr);
// samplers
@ -1206,6 +1211,8 @@ extern "C" {
// TODO: should this take ownership so the user does not need to call llama_constraint_free
// or should just make a reference to the constraint so that it can be reused in multiple llama_sampler?
//
// seems better to take the ownership, otherwise the copying of the sampler will be more complicated
LLAMA_API void llama_sampler_add_constraint(struct llama_sampler * smpl, struct llama_constraint * cnstr);
LLAMA_API void llama_sampler_accept(struct llama_sampler * smpl, llama_token token);

View file

@ -50,6 +50,10 @@ struct llama_sampling * llama_sampling_init_impl(const struct llama_vocab & voca
}
void llama_sampling_free_impl(struct llama_sampling * sampling) {
if (sampling == nullptr) {
return;
}
delete sampling;
}
@ -633,3 +637,166 @@ llama_token llama_sampling_prev_impl(const struct llama_sampling & smpl, int ith
int llama_sampling_n_prev_impl(const struct llama_sampling & smpl) {
return smpl.prev.size();
}
//
// sampling v2
//
// constraints
// top-k
struct llama_constraint_context_top_k {
int32_t k;
size_t min_keep;
};
static struct llama_constraint_i llama_constraint_top_k_i = {
/* .accept = */ nullptr,
/* .apply = */ [](struct llama_constraint * cnstr, llama_token_data_array * candidates) {
auto * ctx = (llama_constraint_context_top_k *) cnstr->ctx;
llama_sampling_top_k_impl(candidates, ctx->k, ctx->min_keep);
},
/* .reset = */ nullptr,
/* .copy = */ [](struct llama_constraint * cnstr, const struct llama_constraint * cnstr_src) {
cnstr->ctx = new llama_constraint_context_top_k;
const auto * ctx_src = (const llama_constraint_context_top_k *) cnstr_src->ctx;
auto * ctx_dst = ( llama_constraint_context_top_k *) cnstr->ctx;
*ctx_dst = *ctx_src;
},
/* .free = */ [](struct llama_constraint * cnstr) {
delete (llama_constraint_context_top_k *) cnstr->ctx;
delete cnstr;
}
};
struct llama_constraint * llama_constraint_init_top_k_impl(int32_t k, size_t min_keep) {
struct llama_constraint * result = new llama_constraint;
result->iface = &llama_constraint_top_k_i;
result->ctx = new llama_constraint_context_top_k{k, min_keep};
return result;
}
// top-p
struct llama_constraint_context_top_p {
float p;
size_t min_keep;
};
static struct llama_constraint_i llama_constraint_top_p_i = {
/* .accept = */ nullptr,
/* .apply = */ [](struct llama_constraint * cnstr, llama_token_data_array * candidates) {
llama_constraint_context_top_p * ctx = (llama_constraint_context_top_p *) cnstr->ctx;
llama_sampling_top_p_impl(candidates, ctx->p, ctx->min_keep);
},
/* .reset = */ nullptr,
/* .copy = */ [](struct llama_constraint * cnstr, const struct llama_constraint * cnstr_src) {
cnstr->ctx = new llama_constraint_context_top_p;
const auto * ctx_src = (const llama_constraint_context_top_p *) cnstr_src->ctx;
auto * ctx_dst = ( llama_constraint_context_top_p *) cnstr->ctx;
*ctx_dst = *ctx_src;
},
/* .free = */ [](struct llama_constraint * cnstr) {
delete (llama_constraint_context_top_p *) cnstr->ctx;
delete cnstr;
}
};
struct llama_constraint * llama_constraint_init_top_p_impl(float p, size_t min_keep) {
struct llama_constraint * result = new llama_constraint;
result->iface = &llama_constraint_top_p_i;
result->ctx = new llama_constraint_context_top_p{p, min_keep};
return result;
}
void llama_constraint_free_impl(struct llama_constraint * constraint) {
if (constraint->iface->free) {
constraint->iface->free(constraint);
}
}
void llama_constraint_accept_impl(struct llama_constraint * constraint, llama_token token) {
if (constraint->iface->accept) {
constraint->iface->accept(constraint, token);
}
}
void llama_constraint_apply_impl(struct llama_constraint * constraint, struct llama_token_data_array * candidates) {
GGML_ASSERT(constraint->iface->apply);
constraint->iface->apply(constraint, candidates);
}
void llama_constraint_reset_impl(struct llama_constraint * constraint) {
if (constraint->iface->reset) {
constraint->iface->reset(constraint);
}
}
// samplers
struct llama_sampler * llama_sampler_init_impl(struct llama_sampler_params params) {
auto * result = new llama_sampler;
result->params = params;
result->rng.seed(params.seed);
return result;
}
void llama_sampler_free_impl(struct llama_sampler * smpl) {
if (smpl == nullptr) {
return;
}
for (auto * constraint : smpl->constraints) {
llama_constraint_free_impl(constraint);
}
delete smpl;
}
struct llama_sampler * llama_sampler_cp_impl(const struct llama_sampler & smpl) {
auto * result = new llama_sampler;
*result = smpl;
// copy the constraints objects
result->constraints.clear();
for (const auto & constraint : smpl.constraints) {
GGML_ASSERT(constraint->iface->copy);
result->constraints.push_back(new llama_constraint);
result->constraints.back()->iface = constraint->iface;
result->constraints.back()->iface->copy(result->constraints.back(), constraint);
}
return result;
}
void llama_sampler_reset_impl(struct llama_sampler & smpl) {
smpl.prev.clear();
for (auto * constraint : smpl.constraints) {
llama_constraint_reset_impl(constraint);
}
// TODO: should we reset the timings?
}
void llama_sampler_add_constraint_impl(struct llama_sampler & smpl, struct llama_constraint * cnstr) {
smpl.constraints.push_back(cnstr);
}
void llama_sampler_accept_impl(struct llama_sampler & smpl, llama_token token) {
smpl.prev.push_back(token);
for (auto * constraint : smpl.constraints) {
llama_constraint_accept_impl(constraint, token);
}
}

View file

@ -105,3 +105,48 @@ void llama_sampling_accept_impl(struct llama_sampling & smpl, llama_token token,
llama_token llama_sampling_prev_impl (const struct llama_sampling & smpl, int ith);
int llama_sampling_n_prev_impl(const struct llama_sampling & smpl);
//
// sampling v2
//
// constraints
struct llama_constraint * llama_constraint_init_top_k_impl(int32_t k, size_t min_keep);
struct llama_constraint * llama_constraint_init_top_p_impl(float p, size_t min_keep);
void llama_constraint_free_impl(struct llama_constraint * constraint);
void llama_constraint_accept_impl(struct llama_constraint * constraint, llama_token token);
void llama_constraint_apply_impl (struct llama_constraint * constraint, struct llama_token_data_array * candidates);
void llama_constraint_reset_impl (struct llama_constraint * constraint);
// samplers
struct llama_sampler {
llama_sampler_params params;
// state
std::mt19937 rng;
// TODO: move to a standalone penalty constraint?
ring_buffer<llama_token> prev;
std::vector<llama_constraint *> constraints;
// timing
mutable int64_t t_sample_us = 0;
mutable int32_t n_sample = 0;
};
struct llama_sampler * llama_sampler_init_impl ( struct llama_sampler_params params);
void llama_sampler_free_impl ( struct llama_sampler * smpl);
struct llama_sampler * llama_sampler_cp_impl (const struct llama_sampler & smpl);
void llama_sampler_reset_impl( struct llama_sampler & smpl);
void llama_sampler_add_constraint_impl(struct llama_sampler & smpl, struct llama_constraint * cnstr);
void llama_sampler_accept_impl (struct llama_sampler & smpl, llama_token token);

View file

@ -17937,7 +17937,7 @@ struct llama_context_params llama_context_default_params() {
struct llama_sampler_params llama_sampler_default_params() {
struct llama_sampler_params result = {
/*.dummy =*/ false,
/*.seed =*/ LLAMA_DEFAULT_SEED,
};
return result;
@ -20971,6 +20971,70 @@ llama_token llama_sampling_last(const struct llama_sampling * smpl) {
return llama_sampling_prev_impl(*smpl, 0);
}
//
// sampling v2
//
struct llama_constraint * llama_constraint_init_top_k(int32_t k, int32_t min_keep) {
return llama_constraint_init_top_k_impl(k, min_keep);
}
struct llama_constraint * llama_constraint_init_top_p(float p, int32_t min_keep) {
return llama_constraint_init_top_p_impl(p, min_keep);
}
void llama_constraint_free(struct llama_constraint * cnstr) {
if (cnstr == nullptr) {
return;
}
llama_constraint_free_impl(cnstr);
}
void llama_constraint_accept(struct llama_constraint * cnstr, llama_token token) {
llama_constraint_accept_impl(cnstr, token);
}
void llama_constraint_apply(struct llama_constraint * cnstr, llama_token_data_array * candidates) {
llama_constraint_apply_impl(cnstr, candidates);
}
void llama_constraint_reset(struct llama_constraint * cnstr) {
llama_constraint_reset_impl(cnstr);
}
struct llama_sampler * llama_sampler_init(struct llama_sampler_params params) {
return llama_sampler_init_impl(params);
}
void llama_sampler_free(struct llama_sampler * smpl) {
if (smpl == nullptr) {
return;
}
llama_sampler_free_impl(smpl);
}
struct llama_sampler * llama_sampler_cp(const struct llama_sampler * smpl) {
return llama_sampler_cp_impl(*smpl);
}
void llama_sampler_reset(struct llama_sampler * smpl) {
llama_sampler_reset_impl(*smpl);
}
void llama_sampler_add_constraint(struct llama_sampler * smpl, struct llama_constraint * cnstr) {
llama_sampler_add_constraint_impl(*smpl, cnstr);
}
void llama_sampler_accept(struct llama_sampler * smpl, llama_token token) {
llama_sampler_accept_impl(*smpl, token);
}
llama_token llama_sampler_sample(struct llama_sampler * smpl, const struct llama_context * ctx, int32_t i) {
GGML_ABORT("not implemented");
}
//
// model split
//