/external/llvm-project/clang/test/CodeGen/ |
D | arm64-vrnd.c | 5 float64x2_t rnd5(float64x2_t a) { return vrndq_f64(a); } in rnd5() 8 float64x2_t rnd9(float64x2_t a) { return vrndnq_f64(a); } in rnd9() 11 float64x2_t rnd13(float64x2_t a) { return vrndmq_f64(a); } in rnd13() 14 float64x2_t rnd18(float64x2_t a) { return vrndpq_f64(a); } in rnd18() 17 float64x2_t rnd22(float64x2_t a) { return vrndaq_f64(a); } in rnd22() 20 float64x2_t rnd25(float64x2_t a) { return vrndxq_f64(a); } in rnd25()
|
D | arm64-vrnd-constrained.c | 14 float64x2_t rnd5(float64x2_t a) { return vrndq_f64(a); } in rnd5() 20 float64x2_t rnd13(float64x2_t a) { return vrndmq_f64(a); } in rnd13() 26 float64x2_t rnd18(float64x2_t a) { return vrndpq_f64(a); } in rnd18() 32 float64x2_t rnd22(float64x2_t a) { return vrndaq_f64(a); } in rnd22() 38 float64x2_t rnd25(float64x2_t a) { return vrndxq_f64(a); } in rnd25()
|
D | aarch64-neon-intrinsics-constrained.c | 70 float64x2_t test_vsubq_f64(float64x2_t v1, float64x2_t v2) { in test_vsubq_f64() 97 float64x2_t test_vmulq_f64(float64x2_t v1, float64x2_t v2) { in test_vmulq_f64() 133 float64x2_t test_vmlaq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vmlaq_f64() 169 float64x2_t test_vmlsq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vmlsq_f64() 205 float64x2_t test_vfmaq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vfmaq_f64() 247 float64x2_t test_vfmsq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vfmsq_f64() 256 float64x2_t test_vdivq_f64(float64x2_t v1, float64x2_t v2) { in test_vdivq_f64() 315 uint64x2_t test_vceqq_f64(float64x2_t v1, float64x2_t v2) { in test_vceqq_f64() 356 uint64x2_t test_vcgeq_f64(float64x2_t v1, float64x2_t v2) { in test_vcgeq_f64() 397 uint64x2_t test_vcleq_f64(float64x2_t v1, float64x2_t v2) { in test_vcleq_f64() [all …]
|
D | aarch64-neon-misc-constrained.c | 30 float64x2_t test_vrndaq_f64(float64x2_t a) { in test_vrndaq_f64() 40 float64x2_t test_vrndpq_f64(float64x2_t a) { in test_vrndpq_f64() 60 float64x2_t test_vsqrtq_f64(float64x2_t a) { in test_vsqrtq_f64()
|
D | aarch64-neon-fma.c | 35 float64x2_t test_vmlaq_n_f64(float64x2_t a, float64x2_t b, float64_t c) { in test_vmlaq_n_f64() 67 float64x2_t test_vmlsq_n_f64(float64x2_t a, float64x2_t b, float64_t c) { in test_vmlsq_n_f64() 252 float64x2_t test_vfmaq_n_f64(float64x2_t a, float64x2_t b, float64_t c) { in test_vfmaq_n_f64() 262 float64x2_t test_vfmsq_n_f64(float64x2_t a, float64x2_t b, float64_t c) { in test_vfmsq_n_f64()
|
D | aarch64-neon-misc.c | 224 uint64x2_t test_vceqzq_f64(float64x2_t a) { in test_vceqzq_f64() 339 uint64x2_t test_vcgezq_f64(float64x2_t a) { in test_vcgezq_f64() 445 uint64x2_t test_vclezq_f64(float64x2_t a) { in test_vclezq_f64() 551 uint64x2_t test_vcgtzq_f64(float64x2_t a) { in test_vcgtzq_f64() 657 uint64x2_t test_vcltzq_f64(float64x2_t a) { in test_vcltzq_f64() 1305 float64x2_t test_vnegq_f64(float64x2_t a) { in test_vnegq_f64() 1383 float64x2_t test_vabsq_f64(float64x2_t a) { in test_vabsq_f64() 2188 float32x2_t test_vcvt_f32_f64(float64x2_t a) { in test_vcvt_f32_f64() 2197 float32x4_t test_vcvt_high_f32_f64(float32x2_t a, float64x2_t b) { in test_vcvt_high_f32_f64() 2205 float32x2_t test_vcvtx_f32_f64(float64x2_t a) { in test_vcvtx_f32_f64() [all …]
|
D | aarch64-neon-vcadd.c | 31 void foo64x2_rot90(float64x2_t a, float64x2_t b) in foo64x2_rot90() 34 float64x2_t result = vcaddq_rot90_f64(a, b); in foo64x2_rot90() 61 void foo64x2_rot270(float64x2_t a, float64x2_t b) in foo64x2_rot270() 64 float64x2_t result = vcaddq_rot270_f64(a, b); in foo64x2_rot270()
|
D | aarch64-neon-scalar-x-indexed-elem.c | 37 float64_t test_vmuld_laneq_f64(float64_t a, float64x2_t b) { in test_vmuld_laneq_f64() 78 float64_t test_vmulxd_laneq_f64(float64_t a, float64x2_t b) { in test_vmulxd_laneq_f64() 99 float64x1_t test_vmulx_laneq_f64_0(float64x1_t a, float64x2_t b) { in test_vmulx_laneq_f64_0() 109 float64x1_t test_vmulx_laneq_f64_1(float64x1_t a, float64x2_t b) { in test_vmulx_laneq_f64_1() 134 float64_t test_vfmad_laneq_f64(float64_t a, float64_t b, float64x2_t c) { in test_vfmad_laneq_f64() 187 float64x1_t test_vfma_laneq_f64(float64x1_t a, float64x1_t b, float64x2_t v) { in test_vfma_laneq_f64() 203 float64x1_t test_vfms_laneq_f64(float64x1_t a, float64x1_t b, float64x2_t v) { in test_vfms_laneq_f64() 440 float64x2_t arg3; in test_vmulx_laneq_f64_2()
|
D | arm64_vdupq_n_f64.c | 11 float64x2_t test_vdupq_n_f64(float64_t w) { in test_vdupq_n_f64() 35 float64x2_t test_vdupq_lane_f64(float64x1_t V) { in test_vdupq_lane_f64() 45 float64x2_t test_vmovq_n_f64(float64_t w) { in test_vmovq_n_f64()
|
D | aarch64-neon-2velem.c | 552 float64x2_t test_vfmaq_lane_f64(float64x2_t a, float64x2_t b, float64x1_t v) { in test_vfmaq_lane_f64() 568 float64x2_t test_vfmaq_laneq_f64(float64x2_t a, float64x2_t b, float64x2_t v) { in test_vfmaq_laneq_f64() 585 float64x2_t test_vfmsq_lane_f64(float64x2_t a, float64x2_t b, float64x1_t v) { in test_vfmsq_lane_f64() 602 float64x2_t test_vfmsq_laneq_f64(float64x2_t a, float64x2_t b, float64x2_t v) { in test_vfmsq_laneq_f64() 645 float64_t test_vfmsd_laneq_f64(float64_t a, float64_t b, float64x2_t v) { in test_vfmsd_laneq_f64() 1785 float64x2_t test_vmulq_lane_f64(float64x2_t a, float64x1_t v) { in test_vmulq_lane_f64() 1812 float64x1_t test_vmul_laneq_f64(float64x1_t a, float64x2_t v) { in test_vmul_laneq_f64() 1836 float64x2_t test_vmulq_laneq_f64(float64x2_t a, float64x2_t v) { in test_vmulq_laneq_f64() 1878 float64x2_t test_vmulxq_lane_f64(float64x2_t a, float64x1_t v) { in test_vmulxq_lane_f64() 1920 float64x2_t test_vmulxq_laneq_f64(float64x2_t a, float64x2_t v) { in test_vmulxq_laneq_f64() [all …]
|
D | aarch64-neon-perm.c | 122 float64x2_t test_vuzp1q_f64(float64x2_t a, float64x2_t b) { in test_vuzp1q_f64() 269 float64x2_t test_vuzp2q_f64(float64x2_t a, float64x2_t b) { in test_vuzp2q_f64() 416 float64x2_t test_vzip1q_f64(float64x2_t a, float64x2_t b) { in test_vzip1q_f64() 563 float64x2_t test_vzip2q_f64(float64x2_t a, float64x2_t b) { in test_vzip2q_f64() 710 float64x2_t test_vtrn1q_f64(float64x2_t a, float64x2_t b) { in test_vtrn1q_f64() 857 float64x2_t test_vtrn2q_f64(float64x2_t a, float64x2_t b) { in test_vtrn2q_f64()
|
D | aarch64-neon-scalar-x-indexed-elem-constrained.c | 50 float64_t test_vfmad_laneq_f64(float64_t a, float64_t b, float64x2_t c) { in test_vfmad_laneq_f64() 111 float64x1_t test_vfma_laneq_f64(float64x1_t a, float64x1_t b, float64x2_t v) { in test_vfma_laneq_f64() 130 float64x1_t test_vfms_laneq_f64(float64x1_t a, float64x1_t b, float64x2_t v) { in test_vfms_laneq_f64()
|
D | arm64_vcopy.c | 86 float64x2_t test_vcopyq_laneq_f64(float64x2_t a1, float64x2_t a2) { in test_vcopyq_laneq_f64()
|
D | aarch64-neon-intrinsics.c | 112 float64x2_t test_vaddq_f64(float64x2_t v1, float64x2_t v2) { in test_vaddq_f64() 245 float64x2_t test_vsubq_f64(float64x2_t v1, float64x2_t v2) { in test_vsubq_f64() 378 float64x2_t test_vmulq_f64(float64x2_t v1, float64x2_t v2) { in test_vmulq_f64() 513 float64x2_t test_vmlaq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vmlaq_f64() 634 float64x2_t test_vmlsq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vmlsq_f64() 664 float64x2_t test_vfmaq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vfmaq_f64() 697 float64x2_t test_vfmsq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vfmsq_f64() 704 float64x2_t test_vdivq_f64(float64x2_t v1, float64x2_t v2) { in test_vdivq_f64() 957 float64x2_t test_vabdq_f64(float64x2_t v1, float64x2_t v2) { in test_vabdq_f64() 1264 float64x2_t test_vbslq_f64(uint64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vbslq_f64() [all …]
|
/external/clang/test/CodeGen/ |
D | aarch64-neon-fma.c | 35 float64x2_t test_vmlaq_n_f64(float64x2_t a, float64x2_t b, float64_t c) { in test_vmlaq_n_f64() 67 float64x2_t test_vmlsq_n_f64(float64x2_t a, float64x2_t b, float64_t c) { in test_vmlsq_n_f64() 225 float64x2_t test_vfmaq_n_f64(float64x2_t a, float64x2_t b, float64_t c) { in test_vfmaq_n_f64() 241 float64x2_t test_vfmsq_n_f64(float64x2_t a, float64x2_t b, float64_t c) { in test_vfmsq_n_f64()
|
D | arm64-vrnd.c | 9 int64x2_t rnd5(float64x2_t a) { return vrndq_f64(a); } in rnd5() 17 int64x2_t rnd9(float64x2_t a) { return vrndnq_f64(a); } in rnd9() 19 int64x2_t rnd10(float64x2_t a) { return vrndnq_f64(a); } in rnd10() 26 int64x2_t rnd13(float64x2_t a) { return vrndmq_f64(a); } in rnd13() 28 int64x2_t rnd14(float64x2_t a) { return vrndmq_f64(a); } in rnd14() 35 int64x2_t rnd18(float64x2_t a) { return vrndpq_f64(a); } in rnd18() 42 int64x2_t rnd22(float64x2_t a) { return vrndaq_f64(a); } in rnd22() 49 int64x2_t rnd25(float64x2_t a) { return vrndxq_f64(a); } in rnd25()
|
D | aarch64-neon-misc.c | 243 uint64x2_t test_vceqzq_f64(float64x2_t a) { in test_vceqzq_f64() 369 uint64x2_t test_vcgezq_f64(float64x2_t a) { in test_vcgezq_f64() 485 uint64x2_t test_vclezq_f64(float64x2_t a) { in test_vclezq_f64() 601 uint64x2_t test_vcgtzq_f64(float64x2_t a) { in test_vcgtzq_f64() 717 uint64x2_t test_vcltzq_f64(float64x2_t a) { in test_vcltzq_f64() 1413 float64x2_t test_vnegq_f64(float64x2_t a) { in test_vnegq_f64() 1499 float64x2_t test_vabsq_f64(float64x2_t a) { in test_vabsq_f64() 2383 float32x2_t test_vcvt_f32_f64(float64x2_t a) { in test_vcvt_f32_f64() 2393 float32x4_t test_vcvt_high_f32_f64(float32x2_t a, float64x2_t b) { in test_vcvt_high_f32_f64() 2402 float32x2_t test_vcvtx_f32_f64(float64x2_t a) { in test_vcvtx_f32_f64() [all …]
|
D | aarch64-neon-scalar-x-indexed-elem.c | 45 float64_t test_vmuld_laneq_f64(float64_t a, float64x2_t b) { in test_vmuld_laneq_f64() 96 float64_t test_vmulxd_laneq_f64(float64_t a, float64x2_t b) { in test_vmulxd_laneq_f64() 129 float64x1_t test_vmulx_laneq_f64_0(float64x1_t a, float64x2_t b) { in test_vmulx_laneq_f64_0() 145 float64x1_t test_vmulx_laneq_f64_1(float64x1_t a, float64x2_t b) { in test_vmulx_laneq_f64_1() 176 float64_t test_vfmad_laneq_f64(float64_t a, float64_t b, float64x2_t c) { in test_vfmad_laneq_f64() 231 float64x1_t test_vfma_laneq_f64(float64x1_t a, float64x1_t b, float64x2_t v) { in test_vfma_laneq_f64() 247 float64x1_t test_vfms_laneq_f64(float64x1_t a, float64x1_t b, float64x2_t v) { in test_vfms_laneq_f64() 536 float64x2_t arg3; in test_vmulx_laneq_f64_2()
|
D | arm64_vdupq_n_f64.c | 11 float64x2_t test_vdupq_n_f64(float64_t w) { in test_vdupq_n_f64() 33 float64x2_t test_vdupq_lane_f64(float64x1_t V) { in test_vdupq_lane_f64() 43 float64x2_t test_vmovq_n_f64(float64_t w) { in test_vmovq_n_f64()
|
D | aarch64-neon-2velem.c | 405 float64x2_t test_vfmaq_lane_f64(float64x2_t a, float64x2_t b, float64x1_t v) { in test_vfmaq_lane_f64() 419 float64x2_t test_vfmaq_laneq_f64(float64x2_t a, float64x2_t b, float64x2_t v) { in test_vfmaq_laneq_f64() 434 float64x2_t test_vfmsq_lane_f64(float64x2_t a, float64x2_t b, float64x1_t v) { in test_vfmsq_lane_f64() 449 float64x2_t test_vfmsq_laneq_f64(float64x2_t a, float64x2_t b, float64x2_t v) { in test_vfmsq_laneq_f64() 492 float64_t test_vfmsd_laneq_f64(float64_t a, float64_t b, float64x2_t v) { in test_vfmsd_laneq_f64() 1515 float64x2_t test_vmulq_lane_f64(float64x2_t a, float64x1_t v) { in test_vmulq_lane_f64() 1536 float64x1_t test_vmul_laneq_f64(float64x1_t a, float64x2_t v) { in test_vmul_laneq_f64() 1553 float64x2_t test_vmulq_laneq_f64(float64x2_t a, float64x2_t v) { in test_vmulq_laneq_f64() 1589 float64x2_t test_vmulxq_lane_f64(float64x2_t a, float64x1_t v) { in test_vmulxq_lane_f64() 1625 float64x2_t test_vmulxq_laneq_f64(float64x2_t a, float64x2_t v) { in test_vmulxq_laneq_f64() [all …]
|
D | aarch64-neon-perm.c | 122 float64x2_t test_vuzp1q_f64(float64x2_t a, float64x2_t b) { in test_vuzp1q_f64() 269 float64x2_t test_vuzp2q_f64(float64x2_t a, float64x2_t b) { in test_vuzp2q_f64() 416 float64x2_t test_vzip1q_f64(float64x2_t a, float64x2_t b) { in test_vzip1q_f64() 563 float64x2_t test_vzip2q_f64(float64x2_t a, float64x2_t b) { in test_vzip2q_f64() 710 float64x2_t test_vtrn1q_f64(float64x2_t a, float64x2_t b) { in test_vtrn1q_f64() 857 float64x2_t test_vtrn2q_f64(float64x2_t a, float64x2_t b) { in test_vtrn2q_f64()
|
D | arm64_vcopy.c | 118 float64x2_t test_vcopyq_laneq_f64(float64x2_t a1, float64x2_t a2) { in test_vcopyq_laneq_f64()
|
D | aarch64-neon-intrinsics.c | 111 float64x2_t test_vaddq_f64(float64x2_t v1, float64x2_t v2) { in test_vaddq_f64() 242 float64x2_t test_vsubq_f64(float64x2_t v1, float64x2_t v2) { in test_vsubq_f64() 376 float64x2_t test_vmulq_f64(float64x2_t v1, float64x2_t v2) { in test_vmulq_f64() 516 float64x2_t test_vmlaq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vmlaq_f64() 635 float64x2_t test_vmlsq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vmlsq_f64() 673 float64x2_t test_vfmaq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vfmaq_f64() 714 float64x2_t test_vfmsq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vfmsq_f64() 721 float64x2_t test_vdivq_f64(float64x2_t v1, float64x2_t v2) { in test_vdivq_f64() 1012 float64x2_t test_vabdq_f64(float64x2_t v1, float64x2_t v2) { in test_vabdq_f64() 1367 float64x2_t test_vbslq_f64(uint64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vbslq_f64() [all …]
|
/external/clang/test/Sema/ |
D | vector-cast.c | 49 typedef __attribute__((vector_size(16))) double float64x2_t; typedef 50 float64x1_t vget_low_f64(float64x2_t __p0); 55 float64x2_t v = {0.0, 1.0}; in f4()
|
/external/llvm-project/clang/test/Sema/ |
D | vector-cast.c | 49 typedef __attribute__((vector_size(16))) double float64x2_t; typedef 50 float64x1_t vget_low_f64(float64x2_t __p0); 58 float64x2_t v = {0.0, 1.0}; in f4()
|