• Home
  • Raw
  • Download

Lines Matching refs:a1

6 int64x2x2_t test_vld2q_lane_s64(const void * a1, int64x2x2_t a2) {  in test_vld2q_lane_s64()  argument
8 return vld2q_lane_s64(a1, a2, 1); in test_vld2q_lane_s64()
12 uint64x2x2_t test_vld2q_lane_u64(const void * a1, uint64x2x2_t a2) { in test_vld2q_lane_u64() argument
14 return vld2q_lane_u64(a1, a2, 1); in test_vld2q_lane_u64()
18 int64x1x2_t test_vld2_lane_s64(const void * a1, int64x1x2_t a2) { in test_vld2_lane_s64() argument
20 return vld2_lane_s64(a1, a2, 0); in test_vld2_lane_s64()
24 uint64x1x2_t test_vld2_lane_u64(const void * a1, uint64x1x2_t a2) { in test_vld2_lane_u64() argument
26 return vld2_lane_u64(a1, a2, 0); in test_vld2_lane_u64()
30 poly8x16x2_t test_vld2q_lane_p8(const void * a1, poly8x16x2_t a2) { in test_vld2q_lane_p8() argument
32 return vld2q_lane_p8(a1, a2, 0); in test_vld2q_lane_p8()
37 uint8x16x2_t test_vld2q_lane_u8(const void * a1, uint8x16x2_t a2) { in test_vld2q_lane_u8() argument
39 return vld2q_lane_u8(a1, a2, 0); in test_vld2q_lane_u8()
43 int64x2x3_t test_vld3q_lane_s64(const void * a1, int64x2x3_t a2) { in test_vld3q_lane_s64() argument
45 return vld3q_lane_s64(a1, a2, 1); in test_vld3q_lane_s64()
49 uint64x2x3_t test_vld3q_lane_u64(const void * a1, uint64x2x3_t a2) { in test_vld3q_lane_u64() argument
51 return vld3q_lane_u64(a1, a2, 1); in test_vld3q_lane_u64()
55 int64x1x3_t test_vld3_lane_s64(const void * a1, int64x1x3_t a2) { in test_vld3_lane_s64() argument
57 return vld3_lane_s64(a1, a2, 0); in test_vld3_lane_s64()
61 uint64x1x3_t test_vld3_lane_u64(const void * a1, uint64x1x3_t a2) { in test_vld3_lane_u64() argument
63 return vld3_lane_u64(a1, a2, 0); in test_vld3_lane_u64()
67 int8x8x3_t test_vld3_lane_s8(const void * a1, int8x8x3_t a2) { in test_vld3_lane_s8() argument
69 return vld3_lane_s8(a1, a2, 0); in test_vld3_lane_s8()
73 poly8x16x3_t test_vld3q_lane_p8(const void * a1, poly8x16x3_t a2) { in test_vld3q_lane_p8() argument
75 return vld3q_lane_p8(a1, a2, 0); in test_vld3q_lane_p8()
79 uint8x16x3_t test_vld3q_lane_u8(const void * a1, uint8x16x3_t a2) { in test_vld3q_lane_u8() argument
81 return vld3q_lane_u8(a1, a2, 0); in test_vld3q_lane_u8()
85 int64x2x4_t test_vld4q_lane_s64(const void * a1, int64x2x4_t a2) { in test_vld4q_lane_s64() argument
87 return vld4q_lane_s64(a1, a2, 0); in test_vld4q_lane_s64()
91 uint64x2x4_t test_vld4q_lane_u64(const void * a1, uint64x2x4_t a2) { in test_vld4q_lane_u64() argument
93 return vld4q_lane_u64(a1, a2, 0); in test_vld4q_lane_u64()
97 int64x1x4_t test_vld4_lane_s64(const void * a1, int64x1x4_t a2) { in test_vld4_lane_s64() argument
99 return vld4_lane_s64(a1, a2, 0); in test_vld4_lane_s64()
103 uint64x1x4_t test_vld4_lane_u64(const void * a1, uint64x1x4_t a2) { in test_vld4_lane_u64() argument
105 return vld4_lane_u64(a1, a2, 0); in test_vld4_lane_u64()
109 int8x8x4_t test_vld4_lane_s8(const void * a1, int8x8x4_t a2) { in test_vld4_lane_s8() argument
111 return vld4_lane_s8(a1, a2, 0); in test_vld4_lane_s8()
115 uint8x8x4_t test_vld4_lane_u8(const void * a1, uint8x8x4_t a2) { in test_vld4_lane_u8() argument
117 return vld4_lane_u8(a1, a2, 0); in test_vld4_lane_u8()
121 poly8x16x4_t test_vld4q_lane_p8(const void * a1, poly8x16x4_t a2) { in test_vld4q_lane_p8() argument
123 return vld4q_lane_p8(a1, a2, 0); in test_vld4q_lane_p8()
127 int8x16x4_t test_vld4q_lane_s8(const void * a1, int8x16x4_t a2) { in test_vld4q_lane_s8() argument
129 return vld4q_lane_s8(a1, a2, 0); in test_vld4q_lane_s8()
136 uint8x16x4_t test_vld4q_lane_u8(const void * a1, uint8x16x4_t a2) { in test_vld4q_lane_u8() argument
138 return vld4q_lane_u8(a1, a2, 0); in test_vld4q_lane_u8()