• Home
  • Line#
  • Scopes#
  • Navigate#
  • Raw
  • Download
1; RUN: llc < %s -march=arm -mattr=+neon | FileCheck %s
2
3define <8 x i8> @vmlai8(<8 x i8>* %A, <8 x i8>* %B, <8 x i8> * %C) nounwind {
4;CHECK: vmlai8:
5;CHECK: vmla.i8
6	%tmp1 = load <8 x i8>* %A
7	%tmp2 = load <8 x i8>* %B
8	%tmp3 = load <8 x i8>* %C
9	%tmp4 = mul <8 x i8> %tmp2, %tmp3
10	%tmp5 = add <8 x i8> %tmp1, %tmp4
11	ret <8 x i8> %tmp5
12}
13
14define <4 x i16> @vmlai16(<4 x i16>* %A, <4 x i16>* %B, <4 x i16>* %C) nounwind {
15;CHECK: vmlai16:
16;CHECK: vmla.i16
17	%tmp1 = load <4 x i16>* %A
18	%tmp2 = load <4 x i16>* %B
19	%tmp3 = load <4 x i16>* %C
20	%tmp4 = mul <4 x i16> %tmp2, %tmp3
21	%tmp5 = add <4 x i16> %tmp1, %tmp4
22	ret <4 x i16> %tmp5
23}
24
25define <2 x i32> @vmlai32(<2 x i32>* %A, <2 x i32>* %B, <2 x i32>* %C) nounwind {
26;CHECK: vmlai32:
27;CHECK: vmla.i32
28	%tmp1 = load <2 x i32>* %A
29	%tmp2 = load <2 x i32>* %B
30	%tmp3 = load <2 x i32>* %C
31	%tmp4 = mul <2 x i32> %tmp2, %tmp3
32	%tmp5 = add <2 x i32> %tmp1, %tmp4
33	ret <2 x i32> %tmp5
34}
35
36define <2 x float> @vmlaf32(<2 x float>* %A, <2 x float>* %B, <2 x float>* %C) nounwind {
37;CHECK: vmlaf32:
38;CHECK: vmla.f32
39	%tmp1 = load <2 x float>* %A
40	%tmp2 = load <2 x float>* %B
41	%tmp3 = load <2 x float>* %C
42	%tmp4 = fmul <2 x float> %tmp2, %tmp3
43	%tmp5 = fadd <2 x float> %tmp1, %tmp4
44	ret <2 x float> %tmp5
45}
46
47define <16 x i8> @vmlaQi8(<16 x i8>* %A, <16 x i8>* %B, <16 x i8> * %C) nounwind {
48;CHECK: vmlaQi8:
49;CHECK: vmla.i8
50	%tmp1 = load <16 x i8>* %A
51	%tmp2 = load <16 x i8>* %B
52	%tmp3 = load <16 x i8>* %C
53	%tmp4 = mul <16 x i8> %tmp2, %tmp3
54	%tmp5 = add <16 x i8> %tmp1, %tmp4
55	ret <16 x i8> %tmp5
56}
57
58define <8 x i16> @vmlaQi16(<8 x i16>* %A, <8 x i16>* %B, <8 x i16>* %C) nounwind {
59;CHECK: vmlaQi16:
60;CHECK: vmla.i16
61	%tmp1 = load <8 x i16>* %A
62	%tmp2 = load <8 x i16>* %B
63	%tmp3 = load <8 x i16>* %C
64	%tmp4 = mul <8 x i16> %tmp2, %tmp3
65	%tmp5 = add <8 x i16> %tmp1, %tmp4
66	ret <8 x i16> %tmp5
67}
68
69define <4 x i32> @vmlaQi32(<4 x i32>* %A, <4 x i32>* %B, <4 x i32>* %C) nounwind {
70;CHECK: vmlaQi32:
71;CHECK: vmla.i32
72	%tmp1 = load <4 x i32>* %A
73	%tmp2 = load <4 x i32>* %B
74	%tmp3 = load <4 x i32>* %C
75	%tmp4 = mul <4 x i32> %tmp2, %tmp3
76	%tmp5 = add <4 x i32> %tmp1, %tmp4
77	ret <4 x i32> %tmp5
78}
79
80define <4 x float> @vmlaQf32(<4 x float>* %A, <4 x float>* %B, <4 x float>* %C) nounwind {
81;CHECK: vmlaQf32:
82;CHECK: vmla.f32
83	%tmp1 = load <4 x float>* %A
84	%tmp2 = load <4 x float>* %B
85	%tmp3 = load <4 x float>* %C
86	%tmp4 = fmul <4 x float> %tmp2, %tmp3
87	%tmp5 = fadd <4 x float> %tmp1, %tmp4
88	ret <4 x float> %tmp5
89}
90
91define <8 x i16> @vmlals8(<8 x i16>* %A, <8 x i8>* %B, <8 x i8>* %C) nounwind {
92;CHECK: vmlals8:
93;CHECK: vmlal.s8
94	%tmp1 = load <8 x i16>* %A
95	%tmp2 = load <8 x i8>* %B
96	%tmp3 = load <8 x i8>* %C
97	%tmp4 = sext <8 x i8> %tmp2 to <8 x i16>
98	%tmp5 = sext <8 x i8> %tmp3 to <8 x i16>
99	%tmp6 = mul <8 x i16> %tmp4, %tmp5
100	%tmp7 = add <8 x i16> %tmp1, %tmp6
101	ret <8 x i16> %tmp7
102}
103
104define <4 x i32> @vmlals16(<4 x i32>* %A, <4 x i16>* %B, <4 x i16>* %C) nounwind {
105;CHECK: vmlals16:
106;CHECK: vmlal.s16
107	%tmp1 = load <4 x i32>* %A
108	%tmp2 = load <4 x i16>* %B
109	%tmp3 = load <4 x i16>* %C
110	%tmp4 = sext <4 x i16> %tmp2 to <4 x i32>
111	%tmp5 = sext <4 x i16> %tmp3 to <4 x i32>
112	%tmp6 = mul <4 x i32> %tmp4, %tmp5
113	%tmp7 = add <4 x i32> %tmp1, %tmp6
114	ret <4 x i32> %tmp7
115}
116
117define <2 x i64> @vmlals32(<2 x i64>* %A, <2 x i32>* %B, <2 x i32>* %C) nounwind {
118;CHECK: vmlals32:
119;CHECK: vmlal.s32
120	%tmp1 = load <2 x i64>* %A
121	%tmp2 = load <2 x i32>* %B
122	%tmp3 = load <2 x i32>* %C
123	%tmp4 = sext <2 x i32> %tmp2 to <2 x i64>
124	%tmp5 = sext <2 x i32> %tmp3 to <2 x i64>
125	%tmp6 = mul <2 x i64> %tmp4, %tmp5
126	%tmp7 = add <2 x i64> %tmp1, %tmp6
127	ret <2 x i64> %tmp7
128}
129
130define <8 x i16> @vmlalu8(<8 x i16>* %A, <8 x i8>* %B, <8 x i8>* %C) nounwind {
131;CHECK: vmlalu8:
132;CHECK: vmlal.u8
133	%tmp1 = load <8 x i16>* %A
134	%tmp2 = load <8 x i8>* %B
135	%tmp3 = load <8 x i8>* %C
136	%tmp4 = zext <8 x i8> %tmp2 to <8 x i16>
137	%tmp5 = zext <8 x i8> %tmp3 to <8 x i16>
138	%tmp6 = mul <8 x i16> %tmp4, %tmp5
139	%tmp7 = add <8 x i16> %tmp1, %tmp6
140	ret <8 x i16> %tmp7
141}
142
143define <4 x i32> @vmlalu16(<4 x i32>* %A, <4 x i16>* %B, <4 x i16>* %C) nounwind {
144;CHECK: vmlalu16:
145;CHECK: vmlal.u16
146	%tmp1 = load <4 x i32>* %A
147	%tmp2 = load <4 x i16>* %B
148	%tmp3 = load <4 x i16>* %C
149	%tmp4 = zext <4 x i16> %tmp2 to <4 x i32>
150	%tmp5 = zext <4 x i16> %tmp3 to <4 x i32>
151	%tmp6 = mul <4 x i32> %tmp4, %tmp5
152	%tmp7 = add <4 x i32> %tmp1, %tmp6
153	ret <4 x i32> %tmp7
154}
155
156define <2 x i64> @vmlalu32(<2 x i64>* %A, <2 x i32>* %B, <2 x i32>* %C) nounwind {
157;CHECK: vmlalu32:
158;CHECK: vmlal.u32
159	%tmp1 = load <2 x i64>* %A
160	%tmp2 = load <2 x i32>* %B
161	%tmp3 = load <2 x i32>* %C
162	%tmp4 = zext <2 x i32> %tmp2 to <2 x i64>
163	%tmp5 = zext <2 x i32> %tmp3 to <2 x i64>
164	%tmp6 = mul <2 x i64> %tmp4, %tmp5
165	%tmp7 = add <2 x i64> %tmp1, %tmp6
166	ret <2 x i64> %tmp7
167}
168
169define arm_aapcs_vfpcc <4 x i32> @test_vmlal_lanes16(<4 x i32> %arg0_int32x4_t, <4 x i16> %arg1_int16x4_t, <4 x i16> %arg2_int16x4_t) nounwind readnone {
170entry:
171; CHECK: test_vmlal_lanes16
172; CHECK: vmlal.s16 q0, d2, d3[1]
173  %0 = shufflevector <4 x i16> %arg2_int16x4_t, <4 x i16> undef, <4 x i32> <i32 1, i32 1, i32 1, i32 1> ; <<4 x i16>> [#uses=1]
174  %1 = sext <4 x i16> %arg1_int16x4_t to <4 x i32>
175  %2 = sext <4 x i16> %0 to <4 x i32>
176  %3 = mul <4 x i32> %1, %2
177  %4 = add <4 x i32> %arg0_int32x4_t, %3
178  ret <4 x i32> %4
179}
180
181define arm_aapcs_vfpcc <2 x i64> @test_vmlal_lanes32(<2 x i64> %arg0_int64x2_t, <2 x i32> %arg1_int32x2_t, <2 x i32> %arg2_int32x2_t) nounwind readnone {
182entry:
183; CHECK: test_vmlal_lanes32
184; CHECK: vmlal.s32 q0, d2, d3[1]
185  %0 = shufflevector <2 x i32> %arg2_int32x2_t, <2 x i32> undef, <2 x i32> <i32 1, i32 1> ; <<2 x i32>> [#uses=1]
186  %1 = sext <2 x i32> %arg1_int32x2_t to <2 x i64>
187  %2 = sext <2 x i32> %0 to <2 x i64>
188  %3 = mul <2 x i64> %1, %2
189  %4 = add <2 x i64> %arg0_int64x2_t, %3
190  ret <2 x i64> %4
191}
192
193define arm_aapcs_vfpcc <4 x i32> @test_vmlal_laneu16(<4 x i32> %arg0_uint32x4_t, <4 x i16> %arg1_uint16x4_t, <4 x i16> %arg2_uint16x4_t) nounwind readnone {
194entry:
195; CHECK: test_vmlal_laneu16
196; CHECK: vmlal.u16 q0, d2, d3[1]
197  %0 = shufflevector <4 x i16> %arg2_uint16x4_t, <4 x i16> undef, <4 x i32> <i32 1, i32 1, i32 1, i32 1> ; <<4 x i16>> [#uses=1]
198  %1 = zext <4 x i16> %arg1_uint16x4_t to <4 x i32>
199  %2 = zext <4 x i16> %0 to <4 x i32>
200  %3 = mul <4 x i32> %1, %2
201  %4 = add <4 x i32> %arg0_uint32x4_t, %3
202  ret <4 x i32> %4
203}
204
205define arm_aapcs_vfpcc <2 x i64> @test_vmlal_laneu32(<2 x i64> %arg0_uint64x2_t, <2 x i32> %arg1_uint32x2_t, <2 x i32> %arg2_uint32x2_t) nounwind readnone {
206entry:
207; CHECK: test_vmlal_laneu32
208; CHECK: vmlal.u32 q0, d2, d3[1]
209  %0 = shufflevector <2 x i32> %arg2_uint32x2_t, <2 x i32> undef, <2 x i32> <i32 1, i32 1> ; <<2 x i32>> [#uses=1]
210  %1 = zext <2 x i32> %arg1_uint32x2_t to <2 x i64>
211  %2 = zext <2 x i32> %0 to <2 x i64>
212  %3 = mul <2 x i64> %1, %2
213  %4 = add <2 x i64> %arg0_uint64x2_t, %3
214  ret <2 x i64> %4
215}
216