Lines Matching refs:tmp3
8 %tmp3 = ashr <8 x i8> %tmp2, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7 >
9 %tmp4 = add <8 x i8> %tmp1, %tmp3
18 %tmp3 = ashr <4 x i16> %tmp2, < i16 15, i16 15, i16 15, i16 15 >
19 %tmp4 = add <4 x i16> %tmp1, %tmp3
28 %tmp3 = ashr <2 x i32> %tmp2, < i32 31, i32 31 >
29 %tmp4 = add <2 x i32> %tmp1, %tmp3
38 %tmp3 = ashr <1 x i64> %tmp2, < i64 63 >
39 %tmp4 = add <1 x i64> %tmp1, %tmp3
48 …%tmp3 = ashr <16 x i8> %tmp2, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, …
49 %tmp4 = add <16 x i8> %tmp1, %tmp3
58 %tmp3 = ashr <8 x i16> %tmp2, < i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15 >
59 %tmp4 = add <8 x i16> %tmp1, %tmp3
68 %tmp3 = ashr <4 x i32> %tmp2, < i32 31, i32 31, i32 31, i32 31 >
69 %tmp4 = add <4 x i32> %tmp1, %tmp3
78 %tmp3 = ashr <2 x i64> %tmp2, < i64 63, i64 63 >
79 %tmp4 = add <2 x i64> %tmp1, %tmp3
88 %tmp3 = lshr <8 x i8> %tmp2, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7 >
89 %tmp4 = add <8 x i8> %tmp1, %tmp3
98 %tmp3 = lshr <4 x i16> %tmp2, < i16 15, i16 15, i16 15, i16 15 >
99 %tmp4 = add <4 x i16> %tmp1, %tmp3
108 %tmp3 = lshr <2 x i32> %tmp2, < i32 31, i32 31 >
109 %tmp4 = add <2 x i32> %tmp1, %tmp3
118 %tmp3 = lshr <1 x i64> %tmp2, < i64 63 >
119 %tmp4 = add <1 x i64> %tmp1, %tmp3
128 …%tmp3 = lshr <16 x i8> %tmp2, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, …
129 %tmp4 = add <16 x i8> %tmp1, %tmp3
138 %tmp3 = lshr <8 x i16> %tmp2, < i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15 >
139 %tmp4 = add <8 x i16> %tmp1, %tmp3
148 %tmp3 = lshr <4 x i32> %tmp2, < i32 31, i32 31, i32 31, i32 31 >
149 %tmp4 = add <4 x i32> %tmp1, %tmp3
158 %tmp3 = lshr <2 x i64> %tmp2, < i64 63, i64 63 >
159 %tmp4 = add <2 x i64> %tmp1, %tmp3
168 …%tmp3 = call <8 x i8> @llvm.arm.neon.vrshifts.v8i8(<8 x i8> %tmp2, <8 x i8> < i8 -8, i8 -8, i8 -8,…
169 %tmp4 = add <8 x i8> %tmp1, %tmp3
178 …%tmp3 = call <4 x i16> @llvm.arm.neon.vrshifts.v4i16(<4 x i16> %tmp2, <4 x i16> < i16 -16, i16 -16…
179 %tmp4 = add <4 x i16> %tmp1, %tmp3
188 …%tmp3 = call <2 x i32> @llvm.arm.neon.vrshifts.v2i32(<2 x i32> %tmp2, <2 x i32> < i32 -32, i32 -32…
189 %tmp4 = add <2 x i32> %tmp1, %tmp3
198 %tmp3 = call <1 x i64> @llvm.arm.neon.vrshifts.v1i64(<1 x i64> %tmp2, <1 x i64> < i64 -64 >)
199 %tmp4 = add <1 x i64> %tmp1, %tmp3
208 …%tmp3 = call <8 x i8> @llvm.arm.neon.vrshiftu.v8i8(<8 x i8> %tmp2, <8 x i8> < i8 -8, i8 -8, i8 -8,…
209 %tmp4 = add <8 x i8> %tmp1, %tmp3
218 …%tmp3 = call <4 x i16> @llvm.arm.neon.vrshiftu.v4i16(<4 x i16> %tmp2, <4 x i16> < i16 -16, i16 -16…
219 %tmp4 = add <4 x i16> %tmp1, %tmp3
228 …%tmp3 = call <2 x i32> @llvm.arm.neon.vrshiftu.v2i32(<2 x i32> %tmp2, <2 x i32> < i32 -32, i32 -32…
229 %tmp4 = add <2 x i32> %tmp1, %tmp3
238 %tmp3 = call <1 x i64> @llvm.arm.neon.vrshiftu.v1i64(<1 x i64> %tmp2, <1 x i64> < i64 -64 >)
239 %tmp4 = add <1 x i64> %tmp1, %tmp3
248 …%tmp3 = call <16 x i8> @llvm.arm.neon.vrshifts.v16i8(<16 x i8> %tmp2, <16 x i8> < i8 -8, i8 -8, i8…
249 %tmp4 = add <16 x i8> %tmp1, %tmp3
258 …%tmp3 = call <8 x i16> @llvm.arm.neon.vrshifts.v8i16(<8 x i16> %tmp2, <8 x i16> < i16 -16, i16 -16…
259 %tmp4 = add <8 x i16> %tmp1, %tmp3
268 …%tmp3 = call <4 x i32> @llvm.arm.neon.vrshifts.v4i32(<4 x i32> %tmp2, <4 x i32> < i32 -32, i32 -32…
269 %tmp4 = add <4 x i32> %tmp1, %tmp3
278 …%tmp3 = call <2 x i64> @llvm.arm.neon.vrshifts.v2i64(<2 x i64> %tmp2, <2 x i64> < i64 -64, i64 -64…
279 %tmp4 = add <2 x i64> %tmp1, %tmp3
288 …%tmp3 = call <16 x i8> @llvm.arm.neon.vrshiftu.v16i8(<16 x i8> %tmp2, <16 x i8> < i8 -8, i8 -8, i8…
289 %tmp4 = add <16 x i8> %tmp1, %tmp3
298 …%tmp3 = call <8 x i16> @llvm.arm.neon.vrshiftu.v8i16(<8 x i16> %tmp2, <8 x i16> < i16 -16, i16 -16…
299 %tmp4 = add <8 x i16> %tmp1, %tmp3
308 …%tmp3 = call <4 x i32> @llvm.arm.neon.vrshiftu.v4i32(<4 x i32> %tmp2, <4 x i32> < i32 -32, i32 -32…
309 %tmp4 = add <4 x i32> %tmp1, %tmp3
318 …%tmp3 = call <2 x i64> @llvm.arm.neon.vrshiftu.v2i64(<2 x i64> %tmp2, <2 x i64> < i64 -64, i64 -64…
319 %tmp4 = add <2 x i64> %tmp1, %tmp3