fix unreachable code warnings after GGML_ASSERT(false)

This commit is contained in:
slaren 2024-07-26 02:27:58 +02:00
parent ac6ce60ec4
commit dd84a88a58
4 changed files with 127 additions and 140 deletions

View file

@ -92,7 +92,6 @@ void ggml_tallocr_alloc(struct ggml_tallocr * talloc, struct ggml_tensor * tenso
fprintf(stderr, "%s: not enough space in the buffer to allocate %s (needed %zu, available %zu)\n", fprintf(stderr, "%s: not enough space in the buffer to allocate %s (needed %zu, available %zu)\n",
__func__, tensor->name, size, ggml_backend_buffer_get_size(talloc->buffer) - talloc->offset); __func__, tensor->name, size, ggml_backend_buffer_get_size(talloc->buffer) - talloc->offset);
GGML_ASSERT(!"not enough space in the buffer"); GGML_ASSERT(!"not enough space in the buffer");
return;
} }
void * addr = (char *)ggml_backend_buffer_get_base(talloc->buffer) + talloc->offset; void * addr = (char *)ggml_backend_buffer_get_base(talloc->buffer) + talloc->offset;

View file

@ -3903,7 +3903,7 @@ struct ggml_tensor * ggml_set_i32 (struct ggml_tensor * tensor, int32_t value) {
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
return tensor; return tensor;
@ -3962,7 +3962,7 @@ struct ggml_tensor * ggml_set_f32(struct ggml_tensor * tensor, float value) {
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
return tensor; return tensor;
@ -4034,8 +4034,6 @@ int32_t ggml_get_i32_1d(const struct ggml_tensor * tensor, int i) {
GGML_ASSERT(false); GGML_ASSERT(false);
} }
} }
return 0.0f;
} }
void ggml_set_i32_1d(const struct ggml_tensor * tensor, int i, int32_t value) { void ggml_set_i32_1d(const struct ggml_tensor * tensor, int i, int32_t value) {
@ -4079,7 +4077,7 @@ void ggml_set_i32_1d(const struct ggml_tensor * tensor, int i, int32_t value) {
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -4101,8 +4099,6 @@ int32_t ggml_get_i32_nd(const struct ggml_tensor * tensor, int i0, int i1, int i
default: default:
GGML_ASSERT(false); GGML_ASSERT(false);
} }
return 0.0f;
} }
void ggml_set_i32_nd(const struct ggml_tensor * tensor, int i0, int i1, int i2, int i3, int32_t value) { void ggml_set_i32_nd(const struct ggml_tensor * tensor, int i0, int i1, int i2, int i3, int32_t value) {
@ -4135,7 +4131,7 @@ void ggml_set_i32_nd(const struct ggml_tensor * tensor, int i0, int i1, int i2,
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -4175,8 +4171,6 @@ float ggml_get_f32_1d(const struct ggml_tensor * tensor, int i) {
GGML_ASSERT(false); GGML_ASSERT(false);
} }
} }
return 0.0f;
} }
void ggml_set_f32_1d(const struct ggml_tensor * tensor, int i, float value) { void ggml_set_f32_1d(const struct ggml_tensor * tensor, int i, float value) {
@ -4214,7 +4208,7 @@ void ggml_set_f32_1d(const struct ggml_tensor * tensor, int i, float value) {
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -4236,8 +4230,6 @@ float ggml_get_f32_nd(const struct ggml_tensor * tensor, int i0, int i1, int i2,
default: default:
GGML_ASSERT(false); GGML_ASSERT(false);
} }
return 0.0f;
} }
void ggml_set_f32_nd(const struct ggml_tensor * tensor, int i0, int i1, int i2, int i3, float value) { void ggml_set_f32_nd(const struct ggml_tensor * tensor, int i0, int i1, int i2, int i3, float value) {
@ -4270,7 +4262,7 @@ void ggml_set_f32_nd(const struct ggml_tensor * tensor, int i0, int i1, int i2,
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -9039,7 +9031,7 @@ static void ggml_compute_forward_dup(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -9519,7 +9511,7 @@ static void ggml_compute_forward_add(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -9897,7 +9889,7 @@ static void ggml_compute_forward_add1(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -10022,7 +10014,7 @@ static void ggml_compute_forward_acc(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -10103,7 +10095,7 @@ static void ggml_compute_forward_sub(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -10197,7 +10189,7 @@ static void ggml_compute_forward_mul(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -10288,7 +10280,7 @@ static void ggml_compute_forward_div(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -10333,7 +10325,7 @@ static void ggml_compute_forward_sqr(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -10378,7 +10370,7 @@ static void ggml_compute_forward_sqrt(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -10423,7 +10415,7 @@ static void ggml_compute_forward_log(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -10552,7 +10544,7 @@ static void ggml_compute_forward_sum(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -10605,7 +10597,7 @@ static void ggml_compute_forward_sum_rows(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -10662,7 +10654,7 @@ static void ggml_compute_forward_mean(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -10710,7 +10702,7 @@ static void ggml_compute_forward_argmax(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -10828,7 +10820,7 @@ static void ggml_compute_forward_repeat(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -10906,7 +10898,7 @@ static void ggml_compute_forward_repeat_back(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -10975,7 +10967,7 @@ static void ggml_compute_forward_concat(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11019,7 +11011,7 @@ static void ggml_compute_forward_abs(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11063,7 +11055,7 @@ static void ggml_compute_forward_sgn(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11107,7 +11099,7 @@ static void ggml_compute_forward_neg(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11151,7 +11143,7 @@ static void ggml_compute_forward_step(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11195,7 +11187,7 @@ static void ggml_compute_forward_tanh(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11239,7 +11231,7 @@ static void ggml_compute_forward_elu(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11283,7 +11275,7 @@ static void ggml_compute_forward_relu(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11327,7 +11319,7 @@ static void ggml_compute_forward_sigmoid(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11386,7 +11378,7 @@ static void ggml_compute_forward_gelu(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11445,7 +11437,7 @@ static void ggml_compute_forward_gelu_quick(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11504,7 +11496,7 @@ static void ggml_compute_forward_silu(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
// ggml_compute_forward_leaky_relu // ggml_compute_forward_leaky_relu
@ -11553,7 +11545,7 @@ static void ggml_compute_forward_leaky_relu(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11616,7 +11608,7 @@ static void ggml_compute_forward_silu_back(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11658,7 +11650,7 @@ static void ggml_compute_forward_hardswish(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11700,7 +11692,7 @@ static void ggml_compute_forward_hardsigmoid(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11772,7 +11764,7 @@ static void ggml_compute_forward_norm(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -11840,7 +11832,7 @@ static void ggml_compute_forward_rms_norm(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -12013,7 +12005,7 @@ static void ggml_compute_forward_rms_norm_back(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -12107,7 +12099,7 @@ static void ggml_compute_forward_group_norm(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -12867,7 +12859,7 @@ static void ggml_compute_forward_out_prod(
{ {
GGML_ASSERT(false); // todo GGML_ASSERT(false); // todo
// ggml_compute_forward_out_prod_f16_f32(params, dst); // ggml_compute_forward_out_prod_f16_f32(params, dst);
} break; }
case GGML_TYPE_F32: case GGML_TYPE_F32:
{ {
ggml_compute_forward_out_prod_f32(params, dst); ggml_compute_forward_out_prod_f32(params, dst);
@ -12875,7 +12867,7 @@ static void ggml_compute_forward_out_prod(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -12935,7 +12927,7 @@ static void ggml_compute_forward_scale(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -13051,7 +13043,7 @@ static void ggml_compute_forward_set(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -13329,7 +13321,7 @@ static void ggml_compute_forward_get_rows(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
//static bool first = true; //static bool first = true;
@ -13437,7 +13429,7 @@ static void ggml_compute_forward_get_rows_back(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
//static bool first = true; //static bool first = true;
@ -13515,7 +13507,7 @@ static void ggml_compute_forward_diag(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -13585,7 +13577,7 @@ static void ggml_compute_forward_diag_mask_inf(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -13603,7 +13595,7 @@ static void ggml_compute_forward_diag_mask_zero(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -13721,7 +13713,7 @@ static void ggml_compute_forward_soft_max(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -13817,7 +13809,7 @@ static void ggml_compute_forward_soft_max_back(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -13908,7 +13900,7 @@ static void ggml_compute_forward_clamp(
case GGML_TYPE_COUNT: case GGML_TYPE_COUNT:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -14238,7 +14230,7 @@ static void ggml_compute_forward_rope(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -14262,7 +14254,7 @@ static void ggml_compute_forward_rope_back(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -14462,7 +14454,7 @@ static void ggml_compute_forward_conv_transpose_1d(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -14634,7 +14626,7 @@ static void ggml_compute_forward_im2col(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -14766,20 +14758,20 @@ static void ggml_compute_forward_pool_1d_sk_p0(
switch (op) { switch (op) {
case GGML_OP_POOL_AVG: drow[i] = 0; break; case GGML_OP_POOL_AVG: drow[i] = 0; break;
case GGML_OP_POOL_MAX: drow[i] = -FLT_MAX; break; case GGML_OP_POOL_MAX: drow[i] = -FLT_MAX; break;
case GGML_OP_POOL_COUNT: GGML_ASSERT(false); break; case GGML_OP_POOL_COUNT: GGML_ASSERT(false);
} }
for (int ki = 0; ki < k; ++ki) { for (int ki = 0; ki < k; ++ki) {
switch (op) { switch (op) {
case GGML_OP_POOL_AVG: drow[i] += srow[j]; break; case GGML_OP_POOL_AVG: drow[i] += srow[j]; break;
case GGML_OP_POOL_MAX: if (srow[j] > drow[i]) drow[i] = srow[j]; break; case GGML_OP_POOL_MAX: if (srow[j] > drow[i]) drow[i] = srow[j]; break;
case GGML_OP_POOL_COUNT: GGML_ASSERT(false); break; case GGML_OP_POOL_COUNT: GGML_ASSERT(false);
} }
++j; ++j;
} }
switch (op) { switch (op) {
case GGML_OP_POOL_AVG: drow[i] /= k; break; case GGML_OP_POOL_AVG: drow[i] /= k; break;
case GGML_OP_POOL_MAX: break; case GGML_OP_POOL_MAX: break;
case GGML_OP_POOL_COUNT: GGML_ASSERT(false); break; case GGML_OP_POOL_COUNT: GGML_ASSERT(false);
} }
} }
@ -14848,7 +14840,7 @@ static void ggml_compute_forward_pool_2d(
switch (op) { switch (op) {
case GGML_OP_POOL_AVG: *out = 0; break; case GGML_OP_POOL_AVG: *out = 0; break;
case GGML_OP_POOL_MAX: *out = -FLT_MAX; break; case GGML_OP_POOL_MAX: *out = -FLT_MAX; break;
case GGML_OP_POOL_COUNT: GGML_ASSERT(false); break; case GGML_OP_POOL_COUNT: GGML_ASSERT(false);
} }
const int ix = offset0 + ox * s0; const int ix = offset0 + ox * s0;
@ -14863,14 +14855,14 @@ static void ggml_compute_forward_pool_2d(
switch (op) { switch (op) {
case GGML_OP_POOL_AVG: *out += srow[j]; break; case GGML_OP_POOL_AVG: *out += srow[j]; break;
case GGML_OP_POOL_MAX: if (srow[j] > *out) *out = srow[j]; break; case GGML_OP_POOL_MAX: if (srow[j] > *out) *out = srow[j]; break;
case GGML_OP_POOL_COUNT: GGML_ASSERT(false); break; case GGML_OP_POOL_COUNT: GGML_ASSERT(false);
} }
} }
} }
switch (op) { switch (op) {
case GGML_OP_POOL_AVG: *out /= ka; break; case GGML_OP_POOL_AVG: *out /= ka; break;
case GGML_OP_POOL_MAX: break; case GGML_OP_POOL_MAX: break;
case GGML_OP_POOL_COUNT: GGML_ASSERT(false); break; case GGML_OP_POOL_COUNT: GGML_ASSERT(false);
} }
} }
} }
@ -14935,7 +14927,7 @@ static void ggml_compute_forward_upscale(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -14993,7 +14985,7 @@ static void ggml_compute_forward_pad(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -15034,7 +15026,7 @@ static void ggml_compute_forward_arange(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -15085,7 +15077,7 @@ static void ggml_compute_forward_timestep_embedding(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -15144,7 +15136,7 @@ static void ggml_compute_forward_argsort(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -15367,7 +15359,7 @@ static void ggml_compute_forward_flash_attn_ext(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -15703,7 +15695,7 @@ static void ggml_compute_forward_flash_attn_back(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -15825,7 +15817,7 @@ static void ggml_compute_forward_ssm_conv(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -15946,7 +15938,7 @@ static void ggml_compute_forward_ssm_scan(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -16009,7 +16001,7 @@ static void ggml_compute_forward_win_part(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -16070,7 +16062,7 @@ static void ggml_compute_forward_win_unpart(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -16138,7 +16130,7 @@ static void ggml_compute_forward_unary(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -16185,7 +16177,7 @@ static void ggml_compute_forward_get_rel_pos(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -16266,7 +16258,7 @@ static void ggml_compute_forward_add_rel_pos(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -16312,7 +16304,7 @@ static void ggml_compute_forward_map_unary(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -16361,7 +16353,7 @@ static void ggml_compute_forward_map_binary(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -16560,7 +16552,7 @@ static void ggml_compute_forward_cross_entropy_loss(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -16647,7 +16639,7 @@ static void ggml_compute_forward_cross_entropy_loss_back(
default: default:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -16983,7 +16975,7 @@ static void ggml_compute_forward(struct ggml_compute_params * params, struct ggm
case GGML_OP_COUNT: case GGML_OP_COUNT:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
} }
@ -17373,7 +17365,7 @@ static void ggml_compute_backward(struct ggml_context * ctx, struct ggml_tensor
case GGML_OP_ARGMAX: case GGML_OP_ARGMAX:
{ {
GGML_ASSERT(false); // TODO: implement GGML_ASSERT(false); // TODO: implement
} break; }
case GGML_OP_REPEAT: case GGML_OP_REPEAT:
{ {
// necessary for llama // necessary for llama
@ -17397,15 +17389,15 @@ static void ggml_compute_backward(struct ggml_context * ctx, struct ggml_tensor
case GGML_OP_CONCAT: case GGML_OP_CONCAT:
{ {
GGML_ASSERT(false); // TODO: implement GGML_ASSERT(false); // TODO: implement
} break; }
case GGML_OP_SILU_BACK: case GGML_OP_SILU_BACK:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_NORM: case GGML_OP_NORM:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_RMS_NORM: case GGML_OP_RMS_NORM:
{ {
// necessary for llama // necessary for llama
@ -17422,11 +17414,11 @@ static void ggml_compute_backward(struct ggml_context * ctx, struct ggml_tensor
case GGML_OP_RMS_NORM_BACK: case GGML_OP_RMS_NORM_BACK:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_GROUP_NORM: case GGML_OP_GROUP_NORM:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_MUL_MAT: case GGML_OP_MUL_MAT:
{ {
// https://cs231n.github.io/optimization-2/#staged // https://cs231n.github.io/optimization-2/#staged
@ -17488,11 +17480,11 @@ static void ggml_compute_backward(struct ggml_context * ctx, struct ggml_tensor
case GGML_OP_MUL_MAT_ID: case GGML_OP_MUL_MAT_ID:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_OUT_PROD: case GGML_OP_OUT_PROD:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_SCALE: case GGML_OP_SCALE:
{ {
// necessary for llama // necessary for llama
@ -17669,11 +17661,11 @@ static void ggml_compute_backward(struct ggml_context * ctx, struct ggml_tensor
case GGML_OP_GET_ROWS_BACK: case GGML_OP_GET_ROWS_BACK:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_DIAG: case GGML_OP_DIAG:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_DIAG_MASK_INF: case GGML_OP_DIAG_MASK_INF:
{ {
// necessary for llama // necessary for llama
@ -17712,7 +17704,7 @@ static void ggml_compute_backward(struct ggml_context * ctx, struct ggml_tensor
case GGML_OP_SOFT_MAX_BACK: case GGML_OP_SOFT_MAX_BACK:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_ROPE: case GGML_OP_ROPE:
{ {
// necessary for llama // necessary for llama
@ -17788,51 +17780,51 @@ static void ggml_compute_backward(struct ggml_context * ctx, struct ggml_tensor
case GGML_OP_CLAMP: case GGML_OP_CLAMP:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_CONV_TRANSPOSE_1D: case GGML_OP_CONV_TRANSPOSE_1D:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_IM2COL: case GGML_OP_IM2COL:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_CONV_TRANSPOSE_2D: case GGML_OP_CONV_TRANSPOSE_2D:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_POOL_1D: case GGML_OP_POOL_1D:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_POOL_2D: case GGML_OP_POOL_2D:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_UPSCALE: case GGML_OP_UPSCALE:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_PAD: case GGML_OP_PAD:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_ARANGE: case GGML_OP_ARANGE:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_TIMESTEP_EMBEDDING: case GGML_OP_TIMESTEP_EMBEDDING:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_ARGSORT: case GGML_OP_ARGSORT:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_LEAKY_RELU: case GGML_OP_LEAKY_RELU:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_FLASH_ATTN_EXT: case GGML_OP_FLASH_ATTN_EXT:
{ {
struct ggml_tensor * flash_grad = NULL; struct ggml_tensor * flash_grad = NULL;
@ -17889,12 +17881,12 @@ static void ggml_compute_backward(struct ggml_context * ctx, struct ggml_tensor
case GGML_OP_FLASH_ATTN_BACK: case GGML_OP_FLASH_ATTN_BACK:
{ {
GGML_ASSERT(false); // not supported GGML_ASSERT(false); // not supported
} break; }
case GGML_OP_SSM_CONV: case GGML_OP_SSM_CONV:
case GGML_OP_SSM_SCAN: case GGML_OP_SSM_SCAN:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_OP_WIN_PART: case GGML_OP_WIN_PART:
case GGML_OP_WIN_UNPART: case GGML_OP_WIN_UNPART:
case GGML_OP_UNARY: case GGML_OP_UNARY:
@ -17933,11 +17925,11 @@ static void ggml_compute_backward(struct ggml_context * ctx, struct ggml_tensor
case GGML_UNARY_OP_TANH: case GGML_UNARY_OP_TANH:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_UNARY_OP_ELU: case GGML_UNARY_OP_ELU:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_UNARY_OP_RELU: case GGML_UNARY_OP_RELU:
{ {
if (src0->grad) { if (src0->grad) {
@ -17952,15 +17944,15 @@ static void ggml_compute_backward(struct ggml_context * ctx, struct ggml_tensor
case GGML_UNARY_OP_SIGMOID: case GGML_UNARY_OP_SIGMOID:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_UNARY_OP_GELU: case GGML_UNARY_OP_GELU:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_UNARY_OP_GELU_QUICK: case GGML_UNARY_OP_GELU_QUICK:
{ {
GGML_ASSERT(false); // TODO: not implemented GGML_ASSERT(false); // TODO: not implemented
} break; }
case GGML_UNARY_OP_SILU: case GGML_UNARY_OP_SILU:
{ {
// necessary for llama // necessary for llama
@ -17987,7 +17979,7 @@ static void ggml_compute_backward(struct ggml_context * ctx, struct ggml_tensor
case GGML_OP_MAP_CUSTOM3: case GGML_OP_MAP_CUSTOM3:
{ {
GGML_ASSERT(false); // not supported GGML_ASSERT(false); // not supported
} break; }
case GGML_OP_CROSS_ENTROPY_LOSS: case GGML_OP_CROSS_ENTROPY_LOSS:
{ {
if (src0->grad) { if (src0->grad) {
@ -18003,7 +17995,7 @@ static void ggml_compute_backward(struct ggml_context * ctx, struct ggml_tensor
case GGML_OP_CROSS_ENTROPY_LOSS_BACK: case GGML_OP_CROSS_ENTROPY_LOSS_BACK:
{ {
GGML_ASSERT(false); // not supported GGML_ASSERT(false); // not supported
} break; }
case GGML_OP_NONE: case GGML_OP_NONE:
{ {
// nop // nop
@ -18011,7 +18003,7 @@ static void ggml_compute_backward(struct ggml_context * ctx, struct ggml_tensor
case GGML_OP_COUNT: case GGML_OP_COUNT:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
for (int i = 0; i < GGML_MAX_SRC; ++i) { for (int i = 0; i < GGML_MAX_SRC; ++i) {
@ -18596,7 +18588,7 @@ static int ggml_get_n_tasks(struct ggml_tensor * node, int n_threads) {
case GGML_OP_COUNT: case GGML_OP_COUNT:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
default: default:
{ {
fprintf(stderr, "%s: op not implemented: ", __func__); fprintf(stderr, "%s: op not implemented: ", __func__);
@ -18606,7 +18598,7 @@ static int ggml_get_n_tasks(struct ggml_tensor * node, int n_threads) {
fprintf(stderr, "%d\n", node->op); fprintf(stderr, "%d\n", node->op);
} }
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
} }
assert(n_tasks > 0); assert(n_tasks > 0);
@ -18763,7 +18755,7 @@ struct ggml_cplan ggml_graph_plan(const struct ggml_cgraph * cgraph, int n_threa
case GGML_OP_COUNT: case GGML_OP_COUNT:
{ {
GGML_ASSERT(false); GGML_ASSERT(false);
} break; }
default: default:
break; break;
} }
@ -19999,7 +19991,7 @@ static enum ggml_opt_result linesearch_backtracking(
GGML_ASSERT(false && "line search failed"); GGML_ASSERT(false && "line search failed");
return GGML_LINESEARCH_FAIL; //return GGML_LINESEARCH_FAIL;
} }
static enum ggml_opt_result ggml_opt_lbfgs( static enum ggml_opt_result ggml_opt_lbfgs(
@ -20269,7 +20261,7 @@ static enum ggml_opt_result ggml_opt_lbfgs(
GGML_ASSERT(false && "lbfgs failed"); GGML_ASSERT(false && "lbfgs failed");
return GGML_OPT_RESULT_DID_NOT_CONVERGE; //return GGML_OPT_RESULT_DID_NOT_CONVERGE;
} }
struct ggml_opt_params ggml_opt_default_params(enum ggml_opt_type type) { struct ggml_opt_params ggml_opt_default_params(enum ggml_opt_type type) {
@ -20964,7 +20956,7 @@ struct gguf_context * gguf_init_from_file(const char * fname, struct gguf_init_p
} }
} break; } break;
case GGUF_TYPE_ARRAY: case GGUF_TYPE_ARRAY:
default: GGML_ASSERT(false && "invalid type"); break; default: GGML_ASSERT(false && "invalid type");
} }
} break; } break;
default: GGML_ASSERT(false && "invalid type"); default: GGML_ASSERT(false && "invalid type");
@ -21553,7 +21545,7 @@ void gguf_set_kv(struct gguf_context * ctx, struct gguf_context * src) {
gguf_set_arr_data(ctx, src->kv[i].key.data, src->kv[i].value.arr.type, src->kv[i].value.arr.data, src->kv[i].value.arr.n); gguf_set_arr_data(ctx, src->kv[i].key.data, src->kv[i].value.arr.type, src->kv[i].value.arr.data, src->kv[i].value.arr.n);
} }
} break; } break;
default: GGML_ASSERT(false && "invalid type"); break; default: GGML_ASSERT(false && "invalid type");
} }
} }
} }
@ -21733,7 +21725,7 @@ static void gguf_write_to_buf(const struct gguf_context * ctx, struct gguf_buf *
} }
} break; } break;
case GGUF_TYPE_ARRAY: case GGUF_TYPE_ARRAY:
default: GGML_ASSERT(false && "invalid type"); break; default: GGML_ASSERT(false && "invalid type");
} }
} break; } break;
default: GGML_ASSERT(false && "invalid type"); default: GGML_ASSERT(false && "invalid type");

View file

@ -153,7 +153,7 @@ static uint8_t llama_token_to_byte(const llama_vocab & vocab, llama_token id) {
} }
case LLAMA_VOCAB_TYPE_BPE: { case LLAMA_VOCAB_TYPE_BPE: {
GGML_ASSERT(false); GGML_ASSERT(false);
return unicode_utf8_to_byte(token_data.text); // TODO: why is this here after GGML_ASSERT? //return unicode_utf8_to_byte(token_data.text); // TODO: why is this here after GGML_ASSERT?
} }
case LLAMA_VOCAB_TYPE_WPM: { case LLAMA_VOCAB_TYPE_WPM: {
GGML_ASSERT(false); GGML_ASSERT(false);

View file

@ -2260,7 +2260,6 @@ struct llama_hparams {
} }
GGML_ASSERT(false); GGML_ASSERT(false);
return 0;
} }
uint32_t n_head_kv(uint32_t il = 0) const { uint32_t n_head_kv(uint32_t il = 0) const {
@ -2269,7 +2268,6 @@ struct llama_hparams {
} }
GGML_ASSERT(false); GGML_ASSERT(false);
return 0;
} }
uint32_t n_ff(uint32_t il = 0) const { uint32_t n_ff(uint32_t il = 0) const {
@ -2278,7 +2276,6 @@ struct llama_hparams {
} }
GGML_ASSERT(false); GGML_ASSERT(false);
return 0;
} }
uint32_t n_gqa(uint32_t il = 0) const { uint32_t n_gqa(uint32_t il = 0) const {
@ -8636,7 +8633,7 @@ struct llm_build_context {
default: default:
{ {
GGML_ASSERT(false && "unknown pooling type"); GGML_ASSERT(false && "unknown pooling type");
} break; }
} }
cb(cur, "result_embd_pooled", -1); cb(cur, "result_embd_pooled", -1);
@ -14688,7 +14685,7 @@ static int llama_decode_internal(
case LLAMA_POOLING_TYPE_UNSPECIFIED: case LLAMA_POOLING_TYPE_UNSPECIFIED:
{ {
GGML_ASSERT(false && "unknown pooling type"); GGML_ASSERT(false && "unknown pooling type");
} break; }
} }
} }
n_outputs_prev += lctx.n_outputs; n_outputs_prev += lctx.n_outputs;
@ -16905,7 +16902,6 @@ enum llama_rope_type llama_rope_type(const struct llama_model * model) {
// all model arches should be listed explicitly here // all model arches should be listed explicitly here
case LLM_ARCH_UNKNOWN: case LLM_ARCH_UNKNOWN:
GGML_ASSERT(false && "unknown architecture"); GGML_ASSERT(false && "unknown architecture");
break;
} }
return LLAMA_ROPE_TYPE_NONE; return LLAMA_ROPE_TYPE_NONE;