mirror of
https://github.com/jart/cosmopolitan.git
synced 2025-07-25 12:00:31 +00:00
Release Cosmopolitan v3.6.0
This release is an atomic upgrade to GCC 14.1.0 with C23 and C++23
This commit is contained in:
parent
62ace3623a
commit
5660ec4741
1585 changed files with 117353 additions and 271644 deletions
252
third_party/intel/avx512vldqintrin.internal.h
vendored
252
third_party/intel/avx512vldqintrin.internal.h
vendored
|
@ -4,9 +4,9 @@
|
|||
#endif
|
||||
#ifndef _AVX512VLDQINTRIN_H_INCLUDED
|
||||
#define _AVX512VLDQINTRIN_H_INCLUDED
|
||||
#if !defined(__AVX512VL__) || !defined(__AVX512DQ__)
|
||||
#if !defined(__AVX512VL__) || !defined(__AVX512DQ__) || defined (__EVEX512__)
|
||||
#pragma GCC push_options
|
||||
#pragma GCC target("avx512vl,avx512dq")
|
||||
#pragma GCC target("avx512vl,avx512dq,no-evex512")
|
||||
#define __DISABLE_AVX512VLDQ__
|
||||
#endif
|
||||
extern __inline __m256i
|
||||
|
@ -15,7 +15,7 @@ _mm256_cvttpd_epi64 (__m256d __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvttpd2qq256_mask ((__v4df) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -32,7 +32,7 @@ _mm256_maskz_cvttpd_epi64 (__mmask8 __U, __m256d __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvttpd2qq256_mask ((__v4df) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -41,7 +41,7 @@ _mm_cvttpd_epi64 (__m128d __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvttpd2qq128_mask ((__v2df) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -58,7 +58,7 @@ _mm_maskz_cvttpd_epi64 (__mmask8 __U, __m128d __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvttpd2qq128_mask ((__v2df) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -67,7 +67,7 @@ _mm256_cvttpd_epu64 (__m256d __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvttpd2uqq256_mask ((__v4df) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -84,7 +84,7 @@ _mm256_maskz_cvttpd_epu64 (__mmask8 __U, __m256d __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvttpd2uqq256_mask ((__v4df) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -93,7 +93,7 @@ _mm_cvttpd_epu64 (__m128d __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvttpd2uqq128_mask ((__v2df) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -110,7 +110,7 @@ _mm_maskz_cvttpd_epu64 (__mmask8 __U, __m128d __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvttpd2uqq128_mask ((__v2df) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -119,7 +119,7 @@ _mm256_cvtpd_epi64 (__m256d __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvtpd2qq256_mask ((__v4df) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -136,7 +136,7 @@ _mm256_maskz_cvtpd_epi64 (__mmask8 __U, __m256d __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvtpd2qq256_mask ((__v4df) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -145,7 +145,7 @@ _mm_cvtpd_epi64 (__m128d __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvtpd2qq128_mask ((__v2df) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -162,7 +162,7 @@ _mm_maskz_cvtpd_epi64 (__mmask8 __U, __m128d __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvtpd2qq128_mask ((__v2df) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -171,7 +171,7 @@ _mm256_cvtpd_epu64 (__m256d __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvtpd2uqq256_mask ((__v4df) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -188,7 +188,7 @@ _mm256_maskz_cvtpd_epu64 (__mmask8 __U, __m256d __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvtpd2uqq256_mask ((__v4df) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -197,7 +197,7 @@ _mm_cvtpd_epu64 (__m128d __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvtpd2uqq128_mask ((__v2df) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -214,7 +214,7 @@ _mm_maskz_cvtpd_epu64 (__mmask8 __U, __m128d __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvtpd2uqq128_mask ((__v2df) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -223,7 +223,7 @@ _mm256_cvttps_epi64 (__m128 __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvttps2qq256_mask ((__v4sf) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -240,7 +240,7 @@ _mm256_maskz_cvttps_epi64 (__mmask8 __U, __m128 __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvttps2qq256_mask ((__v4sf) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -249,7 +249,7 @@ _mm_cvttps_epi64 (__m128 __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvttps2qq128_mask ((__v4sf) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -266,7 +266,7 @@ _mm_maskz_cvttps_epi64 (__mmask8 __U, __m128 __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvttps2qq128_mask ((__v4sf) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -275,7 +275,7 @@ _mm256_cvttps_epu64 (__m128 __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvttps2uqq256_mask ((__v4sf) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -292,7 +292,7 @@ _mm256_maskz_cvttps_epu64 (__mmask8 __U, __m128 __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvttps2uqq256_mask ((__v4sf) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -301,7 +301,7 @@ _mm_cvttps_epu64 (__m128 __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvttps2uqq128_mask ((__v4sf) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -318,7 +318,7 @@ _mm_maskz_cvttps_epu64 (__mmask8 __U, __m128 __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvttps2uqq128_mask ((__v4sf) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256d
|
||||
|
@ -327,7 +327,7 @@ _mm256_broadcast_f64x2 (__m128d __A)
|
|||
{
|
||||
return (__m256d) __builtin_ia32_broadcastf64x2_256_mask ((__v2df)
|
||||
__A,
|
||||
(__v4df)_mm256_undefined_pd(),
|
||||
(__v4df)_mm256_avx512_undefined_pd(),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256d
|
||||
|
@ -346,7 +346,7 @@ _mm256_maskz_broadcast_f64x2 (__mmask8 __M, __m128d __A)
|
|||
return (__m256d) __builtin_ia32_broadcastf64x2_256_mask ((__v2df)
|
||||
__A,
|
||||
(__v4df)
|
||||
_mm256_setzero_ps (),
|
||||
_mm256_avx512_setzero_ps (),
|
||||
__M);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -355,7 +355,7 @@ _mm256_broadcast_i64x2 (__m128i __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_broadcasti64x2_256_mask ((__v2di)
|
||||
__A,
|
||||
(__v4di)_mm256_undefined_si256(),
|
||||
(__v4di)_mm256_avx512_undefined_si256(),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -374,7 +374,7 @@ _mm256_maskz_broadcast_i64x2 (__mmask8 __M, __m128i __A)
|
|||
return (__m256i) __builtin_ia32_broadcasti64x2_256_mask ((__v2di)
|
||||
__A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
__M);
|
||||
}
|
||||
extern __inline __m256
|
||||
|
@ -382,7 +382,7 @@ __attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
|
|||
_mm256_broadcast_f32x2 (__m128 __A)
|
||||
{
|
||||
return (__m256) __builtin_ia32_broadcastf32x2_256_mask ((__v4sf) __A,
|
||||
(__v8sf)_mm256_undefined_ps(),
|
||||
(__v8sf)_mm256_avx512_undefined_ps(),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256
|
||||
|
@ -399,7 +399,7 @@ _mm256_maskz_broadcast_f32x2 (__mmask8 __M, __m128 __A)
|
|||
{
|
||||
return (__m256) __builtin_ia32_broadcastf32x2_256_mask ((__v4sf) __A,
|
||||
(__v8sf)
|
||||
_mm256_setzero_ps (),
|
||||
_mm256_avx512_setzero_ps (),
|
||||
__M);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -408,7 +408,7 @@ _mm256_broadcast_i32x2 (__m128i __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_broadcasti32x2_256_mask ((__v4si)
|
||||
__A,
|
||||
(__v8si)_mm256_undefined_si256(),
|
||||
(__v8si)_mm256_avx512_undefined_si256(),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -427,7 +427,7 @@ _mm256_maskz_broadcast_i32x2 (__mmask8 __M, __m128i __A)
|
|||
return (__m256i) __builtin_ia32_broadcasti32x2_256_mask ((__v4si)
|
||||
__A,
|
||||
(__v8si)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
__M);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -436,7 +436,7 @@ _mm_broadcast_i32x2 (__m128i __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_broadcasti32x2_128_mask ((__v4si)
|
||||
__A,
|
||||
(__v4si)_mm_undefined_si128(),
|
||||
(__v4si)_mm_avx512_undefined_si128(),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -455,7 +455,7 @@ _mm_maskz_broadcast_i32x2 (__mmask8 __M, __m128i __A)
|
|||
return (__m128i) __builtin_ia32_broadcasti32x2_128_mask ((__v4si)
|
||||
__A,
|
||||
(__v4si)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
__M);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -481,7 +481,7 @@ _mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B)
|
|||
return (__m256i) __builtin_ia32_pmullq256_mask ((__v4di) __A,
|
||||
(__v4di) __B,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -507,7 +507,7 @@ _mm_maskz_mullo_epi64 (__mmask8 __U, __m128i __A, __m128i __B)
|
|||
return (__m128i) __builtin_ia32_pmullq128_mask ((__v2di) __A,
|
||||
(__v2di) __B,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256d
|
||||
|
@ -527,7 +527,7 @@ _mm256_maskz_andnot_pd (__mmask8 __U, __m256d __A, __m256d __B)
|
|||
return (__m256d) __builtin_ia32_andnpd256_mask ((__v4df) __A,
|
||||
(__v4df) __B,
|
||||
(__v4df)
|
||||
_mm256_setzero_pd (),
|
||||
_mm256_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128d
|
||||
|
@ -547,7 +547,7 @@ _mm_maskz_andnot_pd (__mmask8 __U, __m128d __A, __m128d __B)
|
|||
return (__m128d) __builtin_ia32_andnpd128_mask ((__v2df) __A,
|
||||
(__v2df) __B,
|
||||
(__v2df)
|
||||
_mm_setzero_pd (),
|
||||
_mm_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256
|
||||
|
@ -567,7 +567,7 @@ _mm256_maskz_andnot_ps (__mmask8 __U, __m256 __A, __m256 __B)
|
|||
return (__m256) __builtin_ia32_andnps256_mask ((__v8sf) __A,
|
||||
(__v8sf) __B,
|
||||
(__v8sf)
|
||||
_mm256_setzero_ps (),
|
||||
_mm256_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -586,7 +586,7 @@ _mm_maskz_andnot_ps (__mmask8 __U, __m128 __A, __m128 __B)
|
|||
return (__m128) __builtin_ia32_andnps128_mask ((__v4sf) __A,
|
||||
(__v4sf) __B,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -595,7 +595,7 @@ _mm256_cvtps_epi64 (__m128 __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvtps2qq256_mask ((__v4sf) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -612,7 +612,7 @@ _mm256_maskz_cvtps_epi64 (__mmask8 __U, __m128 __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvtps2qq256_mask ((__v4sf) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -621,7 +621,7 @@ _mm_cvtps_epi64 (__m128 __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvtps2qq128_mask ((__v4sf) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -638,7 +638,7 @@ _mm_maskz_cvtps_epi64 (__mmask8 __U, __m128 __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvtps2qq128_mask ((__v4sf) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -647,7 +647,7 @@ _mm256_cvtps_epu64 (__m128 __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvtps2uqq256_mask ((__v4sf) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -664,7 +664,7 @@ _mm256_maskz_cvtps_epu64 (__mmask8 __U, __m128 __A)
|
|||
{
|
||||
return (__m256i) __builtin_ia32_cvtps2uqq256_mask ((__v4sf) __A,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -673,7 +673,7 @@ _mm_cvtps_epu64 (__m128 __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvtps2uqq128_mask ((__v4sf) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -690,7 +690,7 @@ _mm_maskz_cvtps_epu64 (__mmask8 __U, __m128 __A)
|
|||
{
|
||||
return (__m128i) __builtin_ia32_cvtps2uqq128_mask ((__v4sf) __A,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -699,7 +699,7 @@ _mm256_cvtepi64_ps (__m256i __A)
|
|||
{
|
||||
return (__m128) __builtin_ia32_cvtqq2ps256_mask ((__v4di) __A,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -716,7 +716,7 @@ _mm256_maskz_cvtepi64_ps (__mmask8 __U, __m256i __A)
|
|||
{
|
||||
return (__m128) __builtin_ia32_cvtqq2ps256_mask ((__v4di) __A,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -725,7 +725,7 @@ _mm_cvtepi64_ps (__m128i __A)
|
|||
{
|
||||
return (__m128) __builtin_ia32_cvtqq2ps128_mask ((__v2di) __A,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -742,7 +742,7 @@ _mm_maskz_cvtepi64_ps (__mmask8 __U, __m128i __A)
|
|||
{
|
||||
return (__m128) __builtin_ia32_cvtqq2ps128_mask ((__v2di) __A,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -751,7 +751,7 @@ _mm256_cvtepu64_ps (__m256i __A)
|
|||
{
|
||||
return (__m128) __builtin_ia32_cvtuqq2ps256_mask ((__v4di) __A,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -768,7 +768,7 @@ _mm256_maskz_cvtepu64_ps (__mmask8 __U, __m256i __A)
|
|||
{
|
||||
return (__m128) __builtin_ia32_cvtuqq2ps256_mask ((__v4di) __A,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -777,7 +777,7 @@ _mm_cvtepu64_ps (__m128i __A)
|
|||
{
|
||||
return (__m128) __builtin_ia32_cvtuqq2ps128_mask ((__v2di) __A,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -794,7 +794,7 @@ _mm_maskz_cvtepu64_ps (__mmask8 __U, __m128i __A)
|
|||
{
|
||||
return (__m128) __builtin_ia32_cvtuqq2ps128_mask ((__v2di) __A,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256d
|
||||
|
@ -803,7 +803,7 @@ _mm256_cvtepi64_pd (__m256i __A)
|
|||
{
|
||||
return (__m256d) __builtin_ia32_cvtqq2pd256_mask ((__v4di) __A,
|
||||
(__v4df)
|
||||
_mm256_setzero_pd (),
|
||||
_mm256_avx512_setzero_pd (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256d
|
||||
|
@ -820,7 +820,7 @@ _mm256_maskz_cvtepi64_pd (__mmask8 __U, __m256i __A)
|
|||
{
|
||||
return (__m256d) __builtin_ia32_cvtqq2pd256_mask ((__v4di) __A,
|
||||
(__v4df)
|
||||
_mm256_setzero_pd (),
|
||||
_mm256_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128d
|
||||
|
@ -829,7 +829,7 @@ _mm_cvtepi64_pd (__m128i __A)
|
|||
{
|
||||
return (__m128d) __builtin_ia32_cvtqq2pd128_mask ((__v2di) __A,
|
||||
(__v2df)
|
||||
_mm_setzero_pd (),
|
||||
_mm_avx512_setzero_pd (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128d
|
||||
|
@ -846,7 +846,7 @@ _mm_maskz_cvtepi64_pd (__mmask8 __U, __m128i __A)
|
|||
{
|
||||
return (__m128d) __builtin_ia32_cvtqq2pd128_mask ((__v2di) __A,
|
||||
(__v2df)
|
||||
_mm_setzero_pd (),
|
||||
_mm_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256d
|
||||
|
@ -855,7 +855,7 @@ _mm256_cvtepu64_pd (__m256i __A)
|
|||
{
|
||||
return (__m256d) __builtin_ia32_cvtuqq2pd256_mask ((__v4di) __A,
|
||||
(__v4df)
|
||||
_mm256_setzero_pd (),
|
||||
_mm256_avx512_setzero_pd (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256d
|
||||
|
@ -872,7 +872,7 @@ _mm256_maskz_cvtepu64_pd (__mmask8 __U, __m256i __A)
|
|||
{
|
||||
return (__m256d) __builtin_ia32_cvtuqq2pd256_mask ((__v4di) __A,
|
||||
(__v4df)
|
||||
_mm256_setzero_pd (),
|
||||
_mm256_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256d
|
||||
|
@ -892,7 +892,7 @@ _mm256_maskz_and_pd (__mmask8 __U, __m256d __A, __m256d __B)
|
|||
return (__m256d) __builtin_ia32_andpd256_mask ((__v4df) __A,
|
||||
(__v4df) __B,
|
||||
(__v4df)
|
||||
_mm256_setzero_pd (),
|
||||
_mm256_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128d
|
||||
|
@ -911,7 +911,7 @@ _mm_maskz_and_pd (__mmask8 __U, __m128d __A, __m128d __B)
|
|||
return (__m128d) __builtin_ia32_andpd128_mask ((__v2df) __A,
|
||||
(__v2df) __B,
|
||||
(__v2df)
|
||||
_mm_setzero_pd (),
|
||||
_mm_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256
|
||||
|
@ -930,7 +930,7 @@ _mm256_maskz_and_ps (__mmask8 __U, __m256 __A, __m256 __B)
|
|||
return (__m256) __builtin_ia32_andps256_mask ((__v8sf) __A,
|
||||
(__v8sf) __B,
|
||||
(__v8sf)
|
||||
_mm256_setzero_ps (),
|
||||
_mm256_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -949,7 +949,7 @@ _mm_maskz_and_ps (__mmask8 __U, __m128 __A, __m128 __B)
|
|||
return (__m128) __builtin_ia32_andps128_mask ((__v4sf) __A,
|
||||
(__v4sf) __B,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128d
|
||||
|
@ -958,7 +958,7 @@ _mm_cvtepu64_pd (__m128i __A)
|
|||
{
|
||||
return (__m128d) __builtin_ia32_cvtuqq2pd128_mask ((__v2di) __A,
|
||||
(__v2df)
|
||||
_mm_setzero_pd (),
|
||||
_mm_avx512_setzero_pd (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128d
|
||||
|
@ -975,7 +975,7 @@ _mm_maskz_cvtepu64_pd (__mmask8 __U, __m128i __A)
|
|||
{
|
||||
return (__m128d) __builtin_ia32_cvtuqq2pd128_mask ((__v2di) __A,
|
||||
(__v2df)
|
||||
_mm_setzero_pd (),
|
||||
_mm_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256d
|
||||
|
@ -995,7 +995,7 @@ _mm256_maskz_xor_pd (__mmask8 __U, __m256d __A, __m256d __B)
|
|||
return (__m256d) __builtin_ia32_xorpd256_mask ((__v4df) __A,
|
||||
(__v4df) __B,
|
||||
(__v4df)
|
||||
_mm256_setzero_pd (),
|
||||
_mm256_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128d
|
||||
|
@ -1014,7 +1014,7 @@ _mm_maskz_xor_pd (__mmask8 __U, __m128d __A, __m128d __B)
|
|||
return (__m128d) __builtin_ia32_xorpd128_mask ((__v2df) __A,
|
||||
(__v2df) __B,
|
||||
(__v2df)
|
||||
_mm_setzero_pd (),
|
||||
_mm_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256
|
||||
|
@ -1033,7 +1033,7 @@ _mm256_maskz_xor_ps (__mmask8 __U, __m256 __A, __m256 __B)
|
|||
return (__m256) __builtin_ia32_xorps256_mask ((__v8sf) __A,
|
||||
(__v8sf) __B,
|
||||
(__v8sf)
|
||||
_mm256_setzero_ps (),
|
||||
_mm256_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -1052,7 +1052,7 @@ _mm_maskz_xor_ps (__mmask8 __U, __m128 __A, __m128 __B)
|
|||
return (__m128) __builtin_ia32_xorps128_mask ((__v4sf) __A,
|
||||
(__v4sf) __B,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256d
|
||||
|
@ -1071,7 +1071,7 @@ _mm256_maskz_or_pd (__mmask8 __U, __m256d __A, __m256d __B)
|
|||
return (__m256d) __builtin_ia32_orpd256_mask ((__v4df) __A,
|
||||
(__v4df) __B,
|
||||
(__v4df)
|
||||
_mm256_setzero_pd (),
|
||||
_mm256_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128d
|
||||
|
@ -1090,7 +1090,7 @@ _mm_maskz_or_pd (__mmask8 __U, __m128d __A, __m128d __B)
|
|||
return (__m128d) __builtin_ia32_orpd128_mask ((__v2df) __A,
|
||||
(__v2df) __B,
|
||||
(__v2df)
|
||||
_mm_setzero_pd (),
|
||||
_mm_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256
|
||||
|
@ -1109,7 +1109,7 @@ _mm256_maskz_or_ps (__mmask8 __U, __m256 __A, __m256 __B)
|
|||
return (__m256) __builtin_ia32_orps256_mask ((__v8sf) __A,
|
||||
(__v8sf) __B,
|
||||
(__v8sf)
|
||||
_mm256_setzero_ps (),
|
||||
_mm256_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -1128,7 +1128,7 @@ _mm_maskz_or_ps (__mmask8 __U, __m128 __A, __m128 __B)
|
|||
return (__m128) __builtin_ia32_orps128_mask ((__v4sf) __A,
|
||||
(__v4sf) __B,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -1187,7 +1187,7 @@ _mm256_extractf64x2_pd (__m256d __A, const int __imm)
|
|||
return (__m128d) __builtin_ia32_extractf64x2_256_mask ((__v4df) __A,
|
||||
__imm,
|
||||
(__v2df)
|
||||
_mm_setzero_pd (),
|
||||
_mm_avx512_setzero_pd (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128d
|
||||
|
@ -1209,7 +1209,7 @@ _mm256_maskz_extractf64x2_pd (__mmask8 __U, __m256d __A,
|
|||
return (__m128d) __builtin_ia32_extractf64x2_256_mask ((__v4df) __A,
|
||||
__imm,
|
||||
(__v2df)
|
||||
_mm_setzero_pd (),
|
||||
_mm_avx512_setzero_pd (),
|
||||
(__mmask8)
|
||||
__U);
|
||||
}
|
||||
|
@ -1220,7 +1220,7 @@ _mm256_extracti64x2_epi64 (__m256i __A, const int __imm)
|
|||
return (__m128i) __builtin_ia32_extracti64x2_256_mask ((__v4di) __A,
|
||||
__imm,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128i
|
||||
|
@ -1242,7 +1242,7 @@ _mm256_maskz_extracti64x2_epi64 (__mmask8 __U, __m256i __A,
|
|||
return (__m128i) __builtin_ia32_extracti64x2_256_mask ((__v4di) __A,
|
||||
__imm,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
_mm_avx512_setzero_si128 (),
|
||||
(__mmask8)
|
||||
__U);
|
||||
}
|
||||
|
@ -1252,7 +1252,7 @@ _mm256_reduce_pd (__m256d __A, int __B)
|
|||
{
|
||||
return (__m256d) __builtin_ia32_reducepd256_mask ((__v4df) __A, __B,
|
||||
(__v4df)
|
||||
_mm256_setzero_pd (),
|
||||
_mm256_avx512_setzero_pd (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256d
|
||||
|
@ -1269,7 +1269,7 @@ _mm256_maskz_reduce_pd (__mmask8 __U, __m256d __A, int __B)
|
|||
{
|
||||
return (__m256d) __builtin_ia32_reducepd256_mask ((__v4df) __A, __B,
|
||||
(__v4df)
|
||||
_mm256_setzero_pd (),
|
||||
_mm256_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128d
|
||||
|
@ -1278,7 +1278,7 @@ _mm_reduce_pd (__m128d __A, int __B)
|
|||
{
|
||||
return (__m128d) __builtin_ia32_reducepd128_mask ((__v2df) __A, __B,
|
||||
(__v2df)
|
||||
_mm_setzero_pd (),
|
||||
_mm_avx512_setzero_pd (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128d
|
||||
|
@ -1295,7 +1295,7 @@ _mm_maskz_reduce_pd (__mmask8 __U, __m128d __A, int __B)
|
|||
{
|
||||
return (__m128d) __builtin_ia32_reducepd128_mask ((__v2df) __A, __B,
|
||||
(__v2df)
|
||||
_mm_setzero_pd (),
|
||||
_mm_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256
|
||||
|
@ -1304,7 +1304,7 @@ _mm256_reduce_ps (__m256 __A, int __B)
|
|||
{
|
||||
return (__m256) __builtin_ia32_reduceps256_mask ((__v8sf) __A, __B,
|
||||
(__v8sf)
|
||||
_mm256_setzero_ps (),
|
||||
_mm256_avx512_setzero_ps (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256
|
||||
|
@ -1321,7 +1321,7 @@ _mm256_maskz_reduce_ps (__mmask8 __U, __m256 __A, int __B)
|
|||
{
|
||||
return (__m256) __builtin_ia32_reduceps256_mask ((__v8sf) __A, __B,
|
||||
(__v8sf)
|
||||
_mm256_setzero_ps (),
|
||||
_mm256_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -1330,7 +1330,7 @@ _mm_reduce_ps (__m128 __A, int __B)
|
|||
{
|
||||
return (__m128) __builtin_ia32_reduceps128_mask ((__v4sf) __A, __B,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -1347,7 +1347,7 @@ _mm_maskz_reduce_ps (__mmask8 __U, __m128 __A, int __B)
|
|||
{
|
||||
return (__m128) __builtin_ia32_reduceps128_mask ((__v4sf) __A, __B,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256d
|
||||
|
@ -1357,7 +1357,7 @@ _mm256_range_pd (__m256d __A, __m256d __B, int __C)
|
|||
return (__m256d) __builtin_ia32_rangepd256_mask ((__v4df) __A,
|
||||
(__v4df) __B, __C,
|
||||
(__v4df)
|
||||
_mm256_setzero_pd (),
|
||||
_mm256_avx512_setzero_pd (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256d
|
||||
|
@ -1377,7 +1377,7 @@ _mm256_maskz_range_pd (__mmask8 __U, __m256d __A, __m256d __B, int __C)
|
|||
return (__m256d) __builtin_ia32_rangepd256_mask ((__v4df) __A,
|
||||
(__v4df) __B, __C,
|
||||
(__v4df)
|
||||
_mm256_setzero_pd (),
|
||||
_mm256_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128d
|
||||
|
@ -1387,7 +1387,7 @@ _mm_range_pd (__m128d __A, __m128d __B, int __C)
|
|||
return (__m128d) __builtin_ia32_rangepd128_mask ((__v2df) __A,
|
||||
(__v2df) __B, __C,
|
||||
(__v2df)
|
||||
_mm_setzero_pd (),
|
||||
_mm_avx512_setzero_pd (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128d
|
||||
|
@ -1407,7 +1407,7 @@ _mm_maskz_range_pd (__mmask8 __U, __m128d __A, __m128d __B, int __C)
|
|||
return (__m128d) __builtin_ia32_rangepd128_mask ((__v2df) __A,
|
||||
(__v2df) __B, __C,
|
||||
(__v2df)
|
||||
_mm_setzero_pd (),
|
||||
_mm_avx512_setzero_pd (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m256
|
||||
|
@ -1417,7 +1417,7 @@ _mm256_range_ps (__m256 __A, __m256 __B, int __C)
|
|||
return (__m256) __builtin_ia32_rangeps256_mask ((__v8sf) __A,
|
||||
(__v8sf) __B, __C,
|
||||
(__v8sf)
|
||||
_mm256_setzero_ps (),
|
||||
_mm256_avx512_setzero_ps (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256
|
||||
|
@ -1437,7 +1437,7 @@ _mm256_maskz_range_ps (__mmask8 __U, __m256 __A, __m256 __B, int __C)
|
|||
return (__m256) __builtin_ia32_rangeps256_mask ((__v8sf) __A,
|
||||
(__v8sf) __B, __C,
|
||||
(__v8sf)
|
||||
_mm256_setzero_ps (),
|
||||
_mm256_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -1447,7 +1447,7 @@ _mm_range_ps (__m128 __A, __m128 __B, int __C)
|
|||
return (__m128) __builtin_ia32_rangeps128_mask ((__v4sf) __A,
|
||||
(__v4sf) __B, __C,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m128
|
||||
|
@ -1467,7 +1467,7 @@ _mm_maskz_range_ps (__mmask8 __U, __m128 __A, __m128 __B, int __C)
|
|||
return (__m128) __builtin_ia32_rangeps128_mask ((__v4sf) __A,
|
||||
(__v4sf) __B, __C,
|
||||
(__v4sf)
|
||||
_mm_setzero_ps (),
|
||||
_mm_avx512_setzero_ps (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
extern __inline __mmask8
|
||||
|
@ -1539,7 +1539,7 @@ _mm256_inserti64x2 (__m256i __A, __m128i __B, const int __imm)
|
|||
(__v2di) __B,
|
||||
__imm,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256i
|
||||
|
@ -1563,7 +1563,7 @@ _mm256_maskz_inserti64x2 (__mmask8 __U, __m256i __A, __m128i __B,
|
|||
(__v2di) __B,
|
||||
__imm,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
_mm256_avx512_setzero_si256 (),
|
||||
(__mmask8)
|
||||
__U);
|
||||
}
|
||||
|
@ -1575,7 +1575,7 @@ _mm256_insertf64x2 (__m256d __A, __m128d __B, const int __imm)
|
|||
(__v2df) __B,
|
||||
__imm,
|
||||
(__v4df)
|
||||
_mm256_setzero_pd (),
|
||||
_mm256_avx512_setzero_pd (),
|
||||
(__mmask8) -1);
|
||||
}
|
||||
extern __inline __m256d
|
||||
|
@ -1599,47 +1599,47 @@ _mm256_maskz_insertf64x2 (__mmask8 __U, __m256d __A, __m128d __B,
|
|||
(__v2df) __B,
|
||||
__imm,
|
||||
(__v4df)
|
||||
_mm256_setzero_pd (),
|
||||
_mm256_avx512_setzero_pd (),
|
||||
(__mmask8)
|
||||
__U);
|
||||
}
|
||||
#else
|
||||
#define _mm256_insertf64x2(X, Y, C) ((__m256d) __builtin_ia32_insertf64x2_256_mask ((__v4df)(__m256d) (X), (__v2df)(__m128d) (Y), (int) (C), (__v4df)(__m256d)_mm256_setzero_pd(), (__mmask8)-1))
|
||||
#define _mm256_insertf64x2(X, Y, C) ((__m256d) __builtin_ia32_insertf64x2_256_mask ((__v4df)(__m256d) (X), (__v2df)(__m128d) (Y), (int) (C), (__v4df)(__m256d)_mm256_avx512_setzero_pd(), (__mmask8)-1))
|
||||
#define _mm256_mask_insertf64x2(W, U, X, Y, C) ((__m256d) __builtin_ia32_insertf64x2_256_mask ((__v4df)(__m256d) (X), (__v2df)(__m128d) (Y), (int) (C), (__v4df)(__m256d)(W), (__mmask8)(U)))
|
||||
#define _mm256_maskz_insertf64x2(U, X, Y, C) ((__m256d) __builtin_ia32_insertf64x2_256_mask ((__v4df)(__m256d) (X), (__v2df)(__m128d) (Y), (int) (C), (__v4df)(__m256d)_mm256_setzero_pd(), (__mmask8)(U)))
|
||||
#define _mm256_inserti64x2(X, Y, C) ((__m256i) __builtin_ia32_inserti64x2_256_mask ((__v4di)(__m256i) (X), (__v2di)(__m128i) (Y), (int) (C), (__v4di)(__m256i)_mm256_setzero_si256 (), (__mmask8)-1))
|
||||
#define _mm256_maskz_insertf64x2(U, X, Y, C) ((__m256d) __builtin_ia32_insertf64x2_256_mask ((__v4df)(__m256d) (X), (__v2df)(__m128d) (Y), (int) (C), (__v4df)(__m256d)_mm256_avx512_setzero_pd(), (__mmask8)(U)))
|
||||
#define _mm256_inserti64x2(X, Y, C) ((__m256i) __builtin_ia32_inserti64x2_256_mask ((__v4di)(__m256i) (X), (__v2di)(__m128i) (Y), (int) (C), (__v4di)(__m256i)_mm256_avx512_setzero_si256 (), (__mmask8)-1))
|
||||
#define _mm256_mask_inserti64x2(W, U, X, Y, C) ((__m256i) __builtin_ia32_inserti64x2_256_mask ((__v4di)(__m256i) (X), (__v2di)(__m128i) (Y), (int) (C), (__v4di)(__m256i)(W), (__mmask8)(U)))
|
||||
#define _mm256_maskz_inserti64x2(U, X, Y, C) ((__m256i) __builtin_ia32_inserti64x2_256_mask ((__v4di)(__m256i) (X), (__v2di)(__m128i) (Y), (int) (C), (__v4di)(__m256i)_mm256_setzero_si256 (), (__mmask8)(U)))
|
||||
#define _mm256_extractf64x2_pd(X, C) ((__m128d) __builtin_ia32_extractf64x2_256_mask ((__v4df)(__m256d) (X), (int) (C), (__v2df)(__m128d) _mm_setzero_pd(), (__mmask8)-1))
|
||||
#define _mm256_maskz_inserti64x2(U, X, Y, C) ((__m256i) __builtin_ia32_inserti64x2_256_mask ((__v4di)(__m256i) (X), (__v2di)(__m128i) (Y), (int) (C), (__v4di)(__m256i)_mm256_avx512_setzero_si256 (), (__mmask8)(U)))
|
||||
#define _mm256_extractf64x2_pd(X, C) ((__m128d) __builtin_ia32_extractf64x2_256_mask ((__v4df)(__m256d) (X), (int) (C), (__v2df)(__m128d) _mm_avx512_setzero_pd(), (__mmask8)-1))
|
||||
#define _mm256_mask_extractf64x2_pd(W, U, X, C) ((__m128d) __builtin_ia32_extractf64x2_256_mask ((__v4df)(__m256d) (X), (int) (C), (__v2df)(__m128d) (W), (__mmask8) (U)))
|
||||
#define _mm256_maskz_extractf64x2_pd(U, X, C) ((__m128d) __builtin_ia32_extractf64x2_256_mask ((__v4df)(__m256d) (X), (int) (C), (__v2df)(__m128d) _mm_setzero_pd(), (__mmask8) (U)))
|
||||
#define _mm256_extracti64x2_epi64(X, C) ((__m128i) __builtin_ia32_extracti64x2_256_mask ((__v4di)(__m256i) (X), (int) (C), (__v2di)(__m128i) _mm_setzero_si128 (), (__mmask8)-1))
|
||||
#define _mm256_maskz_extractf64x2_pd(U, X, C) ((__m128d) __builtin_ia32_extractf64x2_256_mask ((__v4df)(__m256d) (X), (int) (C), (__v2df)(__m128d) _mm_avx512_setzero_pd(), (__mmask8) (U)))
|
||||
#define _mm256_extracti64x2_epi64(X, C) ((__m128i) __builtin_ia32_extracti64x2_256_mask ((__v4di)(__m256i) (X), (int) (C), (__v2di)(__m128i) _mm_avx512_setzero_si128 (), (__mmask8)-1))
|
||||
#define _mm256_mask_extracti64x2_epi64(W, U, X, C) ((__m128i) __builtin_ia32_extracti64x2_256_mask ((__v4di)(__m256i) (X), (int) (C), (__v2di)(__m128i) (W), (__mmask8) (U)))
|
||||
#define _mm256_maskz_extracti64x2_epi64(U, X, C) ((__m128i) __builtin_ia32_extracti64x2_256_mask ((__v4di)(__m256i) (X), (int) (C), (__v2di)(__m128i) _mm_setzero_si128 (), (__mmask8) (U)))
|
||||
#define _mm256_reduce_pd(A, B) ((__m256d) __builtin_ia32_reducepd256_mask ((__v4df)(__m256d)(A), (int)(B), (__v4df)_mm256_setzero_pd(), (__mmask8)-1))
|
||||
#define _mm256_maskz_extracti64x2_epi64(U, X, C) ((__m128i) __builtin_ia32_extracti64x2_256_mask ((__v4di)(__m256i) (X), (int) (C), (__v2di)(__m128i) _mm_avx512_setzero_si128 (), (__mmask8) (U)))
|
||||
#define _mm256_reduce_pd(A, B) ((__m256d) __builtin_ia32_reducepd256_mask ((__v4df)(__m256d)(A), (int)(B), (__v4df)_mm256_avx512_setzero_pd(), (__mmask8)-1))
|
||||
#define _mm256_mask_reduce_pd(W, U, A, B) ((__m256d) __builtin_ia32_reducepd256_mask ((__v4df)(__m256d)(A), (int)(B), (__v4df)(__m256d)(W), (__mmask8)(U)))
|
||||
#define _mm256_maskz_reduce_pd(U, A, B) ((__m256d) __builtin_ia32_reducepd256_mask ((__v4df)(__m256d)(A), (int)(B), (__v4df)_mm256_setzero_pd(), (__mmask8)(U)))
|
||||
#define _mm_reduce_pd(A, B) ((__m128d) __builtin_ia32_reducepd128_mask ((__v2df)(__m128d)(A), (int)(B), (__v2df)_mm_setzero_pd(), (__mmask8)-1))
|
||||
#define _mm256_maskz_reduce_pd(U, A, B) ((__m256d) __builtin_ia32_reducepd256_mask ((__v4df)(__m256d)(A), (int)(B), (__v4df)_mm256_avx512_setzero_pd(), (__mmask8)(U)))
|
||||
#define _mm_reduce_pd(A, B) ((__m128d) __builtin_ia32_reducepd128_mask ((__v2df)(__m128d)(A), (int)(B), (__v2df)_mm_avx512_setzero_pd(), (__mmask8)-1))
|
||||
#define _mm_mask_reduce_pd(W, U, A, B) ((__m128d) __builtin_ia32_reducepd128_mask ((__v2df)(__m128d)(A), (int)(B), (__v2df)(__m128d)(W), (__mmask8)(U)))
|
||||
#define _mm_maskz_reduce_pd(U, A, B) ((__m128d) __builtin_ia32_reducepd128_mask ((__v2df)(__m128d)(A), (int)(B), (__v2df)_mm_setzero_pd(), (__mmask8)(U)))
|
||||
#define _mm256_reduce_ps(A, B) ((__m256) __builtin_ia32_reduceps256_mask ((__v8sf)(__m256)(A), (int)(B), (__v8sf)_mm256_setzero_ps(), (__mmask8)-1))
|
||||
#define _mm_maskz_reduce_pd(U, A, B) ((__m128d) __builtin_ia32_reducepd128_mask ((__v2df)(__m128d)(A), (int)(B), (__v2df)_mm_avx512_setzero_pd(), (__mmask8)(U)))
|
||||
#define _mm256_reduce_ps(A, B) ((__m256) __builtin_ia32_reduceps256_mask ((__v8sf)(__m256)(A), (int)(B), (__v8sf)_mm256_avx512_setzero_ps(), (__mmask8)-1))
|
||||
#define _mm256_mask_reduce_ps(W, U, A, B) ((__m256) __builtin_ia32_reduceps256_mask ((__v8sf)(__m256)(A), (int)(B), (__v8sf)(__m256)(W), (__mmask8)(U)))
|
||||
#define _mm256_maskz_reduce_ps(U, A, B) ((__m256) __builtin_ia32_reduceps256_mask ((__v8sf)(__m256)(A), (int)(B), (__v8sf)_mm256_setzero_ps(), (__mmask8)(U)))
|
||||
#define _mm_reduce_ps(A, B) ((__m128) __builtin_ia32_reduceps128_mask ((__v4sf)(__m128)(A), (int)(B), (__v4sf)_mm_setzero_ps(), (__mmask8)-1))
|
||||
#define _mm256_maskz_reduce_ps(U, A, B) ((__m256) __builtin_ia32_reduceps256_mask ((__v8sf)(__m256)(A), (int)(B), (__v8sf)_mm256_avx512_setzero_ps(), (__mmask8)(U)))
|
||||
#define _mm_reduce_ps(A, B) ((__m128) __builtin_ia32_reduceps128_mask ((__v4sf)(__m128)(A), (int)(B), (__v4sf)_mm_avx512_setzero_ps(), (__mmask8)-1))
|
||||
#define _mm_mask_reduce_ps(W, U, A, B) ((__m128) __builtin_ia32_reduceps128_mask ((__v4sf)(__m128)(A), (int)(B), (__v4sf)(__m128)(W), (__mmask8)(U)))
|
||||
#define _mm_maskz_reduce_ps(U, A, B) ((__m128) __builtin_ia32_reduceps128_mask ((__v4sf)(__m128)(A), (int)(B), (__v4sf)_mm_setzero_ps(), (__mmask8)(U)))
|
||||
#define _mm256_range_pd(A, B, C) ((__m256d) __builtin_ia32_rangepd256_mask ((__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (int)(C), (__v4df)_mm256_setzero_pd(), (__mmask8)-1))
|
||||
#define _mm256_maskz_range_pd(U, A, B, C) ((__m256d) __builtin_ia32_rangepd256_mask ((__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (int)(C), (__v4df)_mm256_setzero_pd(), (__mmask8)(U)))
|
||||
#define _mm_range_pd(A, B, C) ((__m128d) __builtin_ia32_rangepd128_mask ((__v2df)(__m128d)(A), (__v2df)(__m128d)(B), (int)(C), (__v2df)_mm_setzero_pd(), (__mmask8)-1))
|
||||
#define _mm256_range_ps(A, B, C) ((__m256) __builtin_ia32_rangeps256_mask ((__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (int)(C), (__v8sf)_mm256_setzero_ps(), (__mmask8)-1))
|
||||
#define _mm_maskz_reduce_ps(U, A, B) ((__m128) __builtin_ia32_reduceps128_mask ((__v4sf)(__m128)(A), (int)(B), (__v4sf)_mm_avx512_setzero_ps(), (__mmask8)(U)))
|
||||
#define _mm256_range_pd(A, B, C) ((__m256d) __builtin_ia32_rangepd256_mask ((__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (int)(C), (__v4df)_mm256_avx512_setzero_pd(), (__mmask8)-1))
|
||||
#define _mm256_maskz_range_pd(U, A, B, C) ((__m256d) __builtin_ia32_rangepd256_mask ((__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (int)(C), (__v4df)_mm256_avx512_setzero_pd(), (__mmask8)(U)))
|
||||
#define _mm_range_pd(A, B, C) ((__m128d) __builtin_ia32_rangepd128_mask ((__v2df)(__m128d)(A), (__v2df)(__m128d)(B), (int)(C), (__v2df)_mm_avx512_setzero_pd(), (__mmask8)-1))
|
||||
#define _mm256_range_ps(A, B, C) ((__m256) __builtin_ia32_rangeps256_mask ((__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (int)(C), (__v8sf)_mm256_avx512_setzero_ps(), (__mmask8)-1))
|
||||
#define _mm256_mask_range_ps(W, U, A, B, C) ((__m256) __builtin_ia32_rangeps256_mask ((__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (int)(C), (__v8sf)(__m256)(W), (__mmask8)(U)))
|
||||
#define _mm256_maskz_range_ps(U, A, B, C) ((__m256) __builtin_ia32_rangeps256_mask ((__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (int)(C), (__v8sf)_mm256_setzero_ps(), (__mmask8)(U)))
|
||||
#define _mm_range_ps(A, B, C) ((__m128) __builtin_ia32_rangeps128_mask ((__v4sf)(__m128)(A), (__v4sf)(__m128)(B), (int)(C), (__v4sf)_mm_setzero_ps(), (__mmask8)-1))
|
||||
#define _mm256_maskz_range_ps(U, A, B, C) ((__m256) __builtin_ia32_rangeps256_mask ((__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (int)(C), (__v8sf)_mm256_avx512_setzero_ps(), (__mmask8)(U)))
|
||||
#define _mm_range_ps(A, B, C) ((__m128) __builtin_ia32_rangeps128_mask ((__v4sf)(__m128)(A), (__v4sf)(__m128)(B), (int)(C), (__v4sf)_mm_avx512_setzero_ps(), (__mmask8)-1))
|
||||
#define _mm_mask_range_ps(W, U, A, B, C) ((__m128) __builtin_ia32_rangeps128_mask ((__v4sf)(__m128)(A), (__v4sf)(__m128)(B), (int)(C), (__v4sf)(__m128)(W), (__mmask8)(U)))
|
||||
#define _mm_maskz_range_ps(U, A, B, C) ((__m128) __builtin_ia32_rangeps128_mask ((__v4sf)(__m128)(A), (__v4sf)(__m128)(B), (int)(C), (__v4sf)_mm_setzero_ps(), (__mmask8)(U)))
|
||||
#define _mm_maskz_range_ps(U, A, B, C) ((__m128) __builtin_ia32_rangeps128_mask ((__v4sf)(__m128)(A), (__v4sf)(__m128)(B), (int)(C), (__v4sf)_mm_avx512_setzero_ps(), (__mmask8)(U)))
|
||||
#define _mm256_mask_range_pd(W, U, A, B, C) ((__m256d) __builtin_ia32_rangepd256_mask ((__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (int)(C), (__v4df)(__m256d)(W), (__mmask8)(U)))
|
||||
#define _mm_mask_range_pd(W, U, A, B, C) ((__m128d) __builtin_ia32_rangepd128_mask ((__v2df)(__m128d)(A), (__v2df)(__m128d)(B), (int)(C), (__v2df)(__m128d)(W), (__mmask8)(U)))
|
||||
#define _mm_maskz_range_pd(U, A, B, C) ((__m128d) __builtin_ia32_rangepd128_mask ((__v2df)(__m128d)(A), (__v2df)(__m128d)(B), (int)(C), (__v2df)_mm_setzero_pd(), (__mmask8)(U)))
|
||||
#define _mm_maskz_range_pd(U, A, B, C) ((__m128d) __builtin_ia32_rangepd128_mask ((__v2df)(__m128d)(A), (__v2df)(__m128d)(B), (int)(C), (__v2df)_mm_avx512_setzero_pd(), (__mmask8)(U)))
|
||||
#define _mm256_mask_fpclass_pd_mask(u, X, C) ((__mmask8) __builtin_ia32_fpclasspd256_mask ((__v4df) (__m256d) (X), (int) (C),(__mmask8)(u)))
|
||||
#define _mm256_mask_fpclass_ps_mask(u, X, C) ((__mmask8) __builtin_ia32_fpclassps256_mask ((__v8sf) (__m256) (X), (int) (C),(__mmask8)(u)))
|
||||
#define _mm_mask_fpclass_pd_mask(u, X, C) ((__mmask8) __builtin_ia32_fpclasspd128_mask ((__v2df) (__m128d) (X), (int) (C),(__mmask8)(u)))
|
||||
|
|
Loading…
Add table
Add a link
Reference in a new issue