Lines Matching refs:vreinterpretq_m128i_s32
192 #define vreinterpretq_m128i_s32(x) vreinterpretq_s64_s32(x) macro
426 return vreinterpretq_m128i_s32(vdupq_n_s32(0)); in _mm_setzero_si128()
504 return vreinterpretq_m128i_s32(vld1q_s32(data)); in _mm_setr_epi32()
619 return vreinterpretq_m128i_s32(vdupq_n_s32(_i)); in _mm_set1_epi32()
641 return vreinterpretq_m128i_s32(vld1q_s32(data)); in _mm_set_epi32()
928 return vreinterpretq_m128i_s32( in _mm_loadl_epi64()
1043 return vreinterpretq_m128i_s32( in _mm_andnot_si128()
1056 return vreinterpretq_m128i_s32( in _mm_and_si128()
1130 return vreinterpretq_m128i_s32( in _mm_or_si128()
1138 return vreinterpretq_m128i_s32( in _mm_xor_si128()
1211 return vreinterpretq_m128i_s32(vabsq_s32(vreinterpretq_s32_m128i(a))); in _mm_abs_epi32()
1532 return vreinterpretq_m128i_s32(vcombine_s32(a32, a10)); in _mm_shuffle_epi_1032()
1542 return vreinterpretq_m128i_s32(vcombine_s32(a01, a23)); in _mm_shuffle_epi_2301()
1549 return vreinterpretq_m128i_s32( in _mm_shuffle_epi_0321()
1557 return vreinterpretq_m128i_s32( in _mm_shuffle_epi_2103()
1566 return vreinterpretq_m128i_s32(vcombine_s32(a10, a10)); in _mm_shuffle_epi_1010()
1575 return vreinterpretq_m128i_s32(vcombine_s32(a01, a10)); in _mm_shuffle_epi_1001()
1584 return vreinterpretq_m128i_s32(vcombine_s32(a01, a01)); in _mm_shuffle_epi_0101()
1591 return vreinterpretq_m128i_s32(vcombine_s32(a11, a22)); in _mm_shuffle_epi_2211()
1598 return vreinterpretq_m128i_s32(vcombine_s32(a22, a01)); in _mm_shuffle_epi_0122()
1605 return vreinterpretq_m128i_s32(vcombine_s32(a32, a33)); in _mm_shuffle_epi_3332()
1660 vreinterpretq_m128i_s32(ret); \
1668 vreinterpretq_m128i_s32( \
1674 vreinterpretq_m128i_s32( \
1690 vreinterpretq_m128i_s32(_shuf); \
1913 return vreinterpretq_m128i_s32( in _mm_slli_epi32()
2031 ret = vreinterpretq_m128i_s32( \
2034 ret = vreinterpretq_m128i_s32( \
2117 return vreinterpretq_m128i_s32(vshlq_s32(vreinterpretq_s32_m128i(a), vc)); in _mm_sll_epi32()
2408 return vreinterpretq_m128i_s32( in _mm_sub_epi32()
2606 return vreinterpretq_m128i_s32(res); in _mm_sign_epi32()
2887 return vreinterpretq_m128i_s32( in _mm_add_epi32()
2968 return vreinterpretq_m128i_s32( in _mm_mullo_epi32()
3068 return vreinterpretq_m128i_s32(vcombine_s32(low_sum, high_sum)); in _mm_madd_epi16()
3531 return vreinterpretq_m128i_s32( in _mm_max_epi32()
3547 return vreinterpretq_m128i_s32( in _mm_min_epi32()
3738 return vreinterpretq_m128i_s32( in _mm_hadd_epi32()
3755 return vreinterpretq_m128i_s32(vsubq_s32(ab02, ab13)); in _mm_hsub_epi32()
4440 return vreinterpretq_m128i_s32(vcvtq_s32_f32(vreinterpretq_f32_m128(a))); in _mm_cvttps_epi32()
4498 return vreinterpretq_m128i_s32(s32x4); in _mm_cvtepi8_epi32()
4516 return vreinterpretq_m128i_s32( in _mm_cvtepi16_epi32()
4578 return vreinterpretq_m128i_s32(vcvtnq_s32_f32(a)); in _mm_cvtps_epi32()
4595 return vreinterpretq_m128i_s32(vbslq_s32(is_delta_half, r_even, r_normal)); in _mm_cvtps_epi32()
4637 return vreinterpretq_m128i_s32(vsetq_lane_s32(a, vdupq_n_s32(0), 0)); in _mm_cvtsi32_si128()
4663 return vreinterpretq_m128i_s32(vreinterpretq_s32_m128(a)); in _mm_castps_si128()
4678 return vreinterpretq_m128i_s32(vld1q_s32((const int32_t *) p)); in _mm_load_si128()
4738 return vreinterpretq_m128i_s32(vld1q_s32((const int32_t *) p)); in _mm_loadu_si128()
4749 return vreinterpretq_m128i_s32( in _mm_loadu_si32()
4939 return vreinterpretq_m128i_s32(vshlq_s32((int32x4_t) a, vdupq_n_s32(-c))); in _mm_sra_epi32()
5073 return vreinterpretq_m128i_s32( in _mm_unpacklo_epi32()
5079 return vreinterpretq_m128i_s32(vcombine_s32(result.val[0], result.val[1])); in _mm_unpacklo_epi32()
5193 return vreinterpretq_m128i_s32( in _mm_unpackhi_epi32()
5199 return vreinterpretq_m128i_s32(vcombine_s32(result.val[0], result.val[1])); in _mm_unpackhi_epi32()
5350 vreinterpretq_m128i_s32( \