Home
last modified time | relevance | path

Searched refs:vmlsl (Results 1 – 25 of 67) sorted by relevance

123

/external/libhevc/common/arm/
Dihevc_itrans_recon_32x32.s260 vmlsl.s16 q15,d14,d7[1]
265 vmlsl.s16 q14,d15,d7[1]
266 vmlsl.s16 q15,d15,d3[3]
276 vmlsl.s16 q9,d13,d5[2]
289 vmlsl.s16 q14,d8,d4[3] @// y1 * sin3(part of b2)
290 vmlsl.s16 q15,d8,d0[1] @// y1 * sin1(part of b3)
293 vmlsl.s16 q13,d9,d7[3] @// y1 * cos3 - y3 * sin1(part of b1)
294 vmlsl.s16 q14,d9,d2[1] @// y1 * sin3 - y3 * cos1(part of b2)
295 vmlsl.s16 q15,d9,d3[1] @// y1 * sin1 - y3 * sin3(part of b3)
308 vmlsl.s16 q8,d10,d6[0]
[all …]
Dihevc_itrans_recon_16x16.s251 vmlsl.s16 q15,d7,d2[3] @// y1 * sin1 - y3 * sin3(part of b3)
272 vmlsl.s16 q14,d8,d1[3]
273 vmlsl.s16 q15,d8,d0[3]
277 vmlsl.s16 q13,d9,d2[3]
278 vmlsl.s16 q14,d9,d0[3]
288 vmlsl.s16 q7,d5,d3[2]
289 vmlsl.s16 q8,d4,d3[0]
290 vmlsl.s16 q8,d5,d0[2]
291 vmlsl.s16 q9,d4,d1[0]
292 vmlsl.s16 q9,d5,d2[2]
[all …]
Dihevc_inter_pred_filters_luma_vert.s166 vmlsl.u8 q4,d0,d22 @mul_res1 = vmlsl_u8(mul_res1, src_tmp1, coeffabs_0)@
168 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
174 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@
178 vmlsl.u8 q4,d7,d29 @mul_res1 = vmlsl_u8(mul_res1, src_tmp4, coeffabs_7)@
185 vmlsl.u8 q5,d1,d22 @mul_res2 = vmlsl_u8(mul_res2, src_tmp2, coeffabs_0)@
188 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@
195 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@
201 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)@
209 vmlsl.u8 q6,d2,d22
211 vmlsl.u8 q6,d4,d24
[all …]
Dihevc_inter_pred_chroma_vert_w16out.s152vmlsl.u8 q3,d5,d0 @vmlsl_u8(mul_res1, vreinterpret_u8_u32(src_tmp1), coeffab…
157 vmlsl.u8 q3,d8,d3
158 vmlsl.u8 q2,d9,d0
160 vmlsl.u8 q2,d10,d3
196 vmlsl.u8 q2,d6,d0
201 vmlsl.u8 q2,d7,d3
239 vmlsl.u8 q15,d4,d0
242 vmlsl.u8 q15,d7,d3
247 vmlsl.u8 q14,d5,d0
251 vmlsl.u8 q14,d8,d3
[all …]
Dihevc_inter_pred_chroma_vert.s151vmlsl.u8 q3,d5,d0 @vmlsl_u8(mul_res1, vreinterpret_u8_u32(src_tmp1), coeffab…
155 vmlsl.u8 q3,d8,d3
156 vmlsl.u8 q2,d9,d0
160 vmlsl.u8 q2,d10,d3
197 vmlsl.u8 q2,d6,d0
202 vmlsl.u8 q2,d7,d3
240 vmlsl.u8 q15,d4,d0
243 vmlsl.u8 q15,d7,d3
248 vmlsl.u8 q14,d5,d0
252 vmlsl.u8 q14,d8,d3
[all …]
Dihevc_inter_pred_chroma_horz.s177 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
181 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
185 vmlsl.u8 q14,d1,d24
190 vmlsl.u8 q14,d7,d27
217 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
234 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
240 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
246 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
253 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
264 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
[all …]
Dihevc_inter_pred_chroma_horz_w16out.s196 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
200 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
205 vmlsl.u8 q14,d1,d24
210 vmlsl.u8 q14,d7,d27
236 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
249 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
256 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
262 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
269 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
275 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
[all …]
Dihevc_itrans_recon_8x8.s208 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1)
210 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2)
212 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3)
241 vmlsl.s16 q13,d14,d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1)
245 vmlsl.s16 q9,d11,d0[2] @// d1 = y2 * sin2 - y6 * cos2(part of a0 and a1)
252vmlsl.s16 q13,d15,d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(par…
254vmlsl.s16 q15,d15,d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(par…
314 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1)
315 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2)
316 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3)
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s145 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
147 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
149 vmlsl.u8 q6, d29, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
151 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
154 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1)
156 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row1)
158 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
160 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
162 vmlsl.u8 q6, d29, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0)
164 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1)
[all …]
/external/libvpx/config/arm-neon/vpx_dsp/arm/
Dvpx_convolve8_avg_vert_filter_type2_neon.asm.S92 vmlsl.u8 q4, d0, d22 @mul_res1 = vmlsl_u8(mul_res1,
95 vmlsl.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1,
104 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1,
110 vmlsl.u8 q4, d7, d29 @mul_res1 = vmlsl_u8(mul_res1,
117 vmlsl.u8 q5, d1, d22 @mul_res2 = vmlsl_u8(mul_res2,
120 vmlsl.u8 q5, d3, d24 @mul_res2 = vmlsl_u8(mul_res2,
132 vmlsl.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2,
138 vmlsl.u8 q5, d16, d29 @mul_res2 = vmlsl_u8(mul_res2,
145 vmlsl.u8 q6, d2, d22
148 vmlsl.u8 q6, d4, d24
[all …]
Dvpx_convolve8_avg_vert_filter_type1_neon.asm.S88 vmlsl.u8 q4, d1, d23 @mul_res1 = vmull_u8(src_tmp2,
91 vmlsl.u8 q4, d0, d22 @mul_res1 = vmlsl_u8(mul_res1,
106 vmlsl.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1,
109 vmlsl.u8 q4, d7, d29 @mul_res1 = vmlsl_u8(mul_res1,
113 vmlsl.u8 q5, d2, d23 @mul_res2 = vmull_u8(src_tmp3,
116 vmlsl.u8 q5, d1, d22 @mul_res2 = vmlsl_u8(mul_res2,
134 vmlsl.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2,
137 vmlsl.u8 q5, d16, d29 @mul_res2 = vmlsl_u8(mul_res2,
142 vmlsl.u8 q6, d3, d23
144 vmlsl.u8 q6, d2, d22
[all …]
Dvpx_convolve8_vert_filter_type1_neon.asm.S89 vmlsl.u8 q4, d1, d23 @mul_res1 = vmull_u8(src_tmp2,
92 vmlsl.u8 q4, d0, d22 @mul_res1 = vmlsl_u8(mul_res1,
107 vmlsl.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1,
110 vmlsl.u8 q4, d7, d29 @mul_res1 = vmlsl_u8(mul_res1,
114 vmlsl.u8 q5, d2, d23 @mul_res2 = vmull_u8(src_tmp3,
117 vmlsl.u8 q5, d1, d22 @mul_res2 = vmlsl_u8(mul_res2,
134 vmlsl.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2,
137 vmlsl.u8 q5, d16, d29 @mul_res2 = vmlsl_u8(mul_res2,
142 vmlsl.u8 q6, d3, d23
144 vmlsl.u8 q6, d2, d22
[all …]
Dvpx_convolve8_vert_filter_type2_neon.asm.S92 vmlsl.u8 q4, d0, d22 @mul_res1 = vmlsl_u8(mul_res1,
95 vmlsl.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1,
104 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1,
110 vmlsl.u8 q4, d7, d29 @mul_res1 = vmlsl_u8(mul_res1,
117 vmlsl.u8 q5, d1, d22 @mul_res2 = vmlsl_u8(mul_res2,
120 vmlsl.u8 q5, d3, d24 @mul_res2 = vmlsl_u8(mul_res2,
131 vmlsl.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2,
137 vmlsl.u8 q5, d16, d29 @mul_res2 = vmlsl_u8(mul_res2,
145 vmlsl.u8 q6, d2, d22
147 vmlsl.u8 q6, d4, d24
[all …]
/external/libvpx/libvpx/vpx_dsp/arm/
Dvpx_convolve8_avg_vert_filter_type1_neon.asm82 vmlsl.u8 q4, d1, d23 ;mul_res1 = vmull_u8(src_tmp2,
85 vmlsl.u8 q4, d0, d22 ;mul_res1 = vmlsl_u8(mul_res1,
100 vmlsl.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1,
103 vmlsl.u8 q4, d7, d29 ;mul_res1 = vmlsl_u8(mul_res1,
107 vmlsl.u8 q5, d2, d23 ;mul_res2 = vmull_u8(src_tmp3,
110 vmlsl.u8 q5, d1, d22 ;mul_res2 = vmlsl_u8(mul_res2,
128 vmlsl.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2,
131 vmlsl.u8 q5, d16, d29 ;mul_res2 = vmlsl_u8(mul_res2,
136 vmlsl.u8 q6, d3, d23
138 vmlsl.u8 q6, d2, d22
[all …]
Dvpx_convolve8_avg_vert_filter_type2_neon.asm86 vmlsl.u8 q4, d0, d22 ;mul_res1 = vmlsl_u8(mul_res1,
89 vmlsl.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1,
98 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
104 vmlsl.u8 q4, d7, d29 ;mul_res1 = vmlsl_u8(mul_res1,
111 vmlsl.u8 q5, d1, d22 ;mul_res2 = vmlsl_u8(mul_res2,
114 vmlsl.u8 q5, d3, d24 ;mul_res2 = vmlsl_u8(mul_res2,
126 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
132 vmlsl.u8 q5, d16, d29 ;mul_res2 = vmlsl_u8(mul_res2,
139 vmlsl.u8 q6, d2, d22
142 vmlsl.u8 q6, d4, d24
[all …]
Dvpx_convolve8_vert_filter_type1_neon.asm83 vmlsl.u8 q4, d1, d23 ;mul_res1 = vmull_u8(src_tmp2,
86 vmlsl.u8 q4, d0, d22 ;mul_res1 = vmlsl_u8(mul_res1,
101 vmlsl.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1,
104 vmlsl.u8 q4, d7, d29 ;mul_res1 = vmlsl_u8(mul_res1,
108 vmlsl.u8 q5, d2, d23 ;mul_res2 = vmull_u8(src_tmp3,
111 vmlsl.u8 q5, d1, d22 ;mul_res2 = vmlsl_u8(mul_res2,
128 vmlsl.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2,
131 vmlsl.u8 q5, d16, d29 ;mul_res2 = vmlsl_u8(mul_res2,
136 vmlsl.u8 q6, d3, d23
138 vmlsl.u8 q6, d2, d22
[all …]
Dvpx_convolve8_vert_filter_type2_neon.asm86 vmlsl.u8 q4, d0, d22 ;mul_res1 = vmlsl_u8(mul_res1,
89 vmlsl.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1,
98 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
104 vmlsl.u8 q4, d7, d29 ;mul_res1 = vmlsl_u8(mul_res1,
111 vmlsl.u8 q5, d1, d22 ;mul_res2 = vmlsl_u8(mul_res2,
114 vmlsl.u8 q5, d3, d24 ;mul_res2 = vmlsl_u8(mul_res2,
125 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
131 vmlsl.u8 q5, d16, d29 ;mul_res2 = vmlsl_u8(mul_res2,
139 vmlsl.u8 q6, d2, d22
141 vmlsl.u8 q6, d4, d24
[all …]
Dvpx_convolve8_horiz_filter_type2_neon.asm113 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
116 vmlsl.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2],
122 vmlsl.u8 q4, d5, d29 ;mul_res = vmlsl_u8(src[0_5],
128 vmlsl.u8 q4, d7, d31 ;mul_res = vmlsl_u8(src[0_7],
135 vmlsl.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2],
142 vmlsl.u8 q5, d17, d29 ;mul_res = vmlsl_u8(src[0_5],
146 vmlsl.u8 q5, d19, d31 ;mul_res = vmlsl_u8(src[0_7],
150 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0],
193 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
199 vmlsl.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2],
[all …]
Dvpx_convolve8_horiz_filter_type1_neon.asm107 vmlsl.u8 q4, d1, d25 ;mul_res = vmlal_u8(src[0_1],
113 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
125 vmlsl.u8 q4, d6, d30 ;mul_res = vmlal_u8(src[0_6],
128 vmlsl.u8 q4, d7, d31 ;mul_res = vmlsl_u8(src[0_7],
144 vmlsl.u8 q5, d18, d30 ;mul_res = vmlal_u8(src[0_6],
146 vmlsl.u8 q5, d19, d31 ;mul_res = vmlsl_u8(src[0_7],
150 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0],
152 vmlsl.u8 q5, d13, d25 ;mul_res = vmlal_u8(src[0_1],
193 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
196 vmlsl.u8 q4, d2, d25 ;mul_res = vmlal_u8(src[0_1],
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s151 vmlsl.u8 q12, d2, d31
152 vmlsl.u8 q12, d8, d31
162 vmlsl.u8 q14, d19, d31
163 vmlsl.u8 q14, d22, d31
168 vmlsl.u8 q12, d3, d31
169 vmlsl.u8 q12, d9, d31
182 vmlsl.u8 q12, d19, d31
183 vmlsl.u8 q12, d22, d31
188 vmlsl.u8 q8, d4, d31
189 vmlsl.u8 q8, d10, d31
[all …]
Dih264_inter_pred_filters_luma_horz_a9q.s151 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
153 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
155 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
157 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1)
159 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
161 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
163 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1)
164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1)
192 vmlsl.u8 q7, d23, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
193 vmlsl.u8 q7, d22, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1)
[all …]
/external/llvm-project/llvm/test/MC/ARM/
Dneont2-mul-accum-encoding.s79 vmlsl.s8 q8, d19, d18
80 vmlsl.s16 q8, d19, d18
81 vmlsl.s32 q8, d19, d18
82 vmlsl.u8 q8, d19, d18
83 vmlsl.u16 q8, d19, d18
84 vmlsl.u32 q8, d19, d18
85 vmlsl.u16 q11, d25, d1[3]
87 @ CHECK: vmlsl.s8 q8, d19, d18 @ encoding: [0xc3,0xef,0xa2,0x0a]
88 @ CHECK: vmlsl.s16 q8, d19, d18 @ encoding: [0xd3,0xef,0xa2,0x0a]
89 @ CHECK: vmlsl.s32 q8, d19, d18 @ encoding: [0xe3,0xef,0xa2,0x0a]
[all …]
Dneon-mul-accum-encoding.s75 vmlsl.s8 q8, d19, d18
76 vmlsl.s16 q8, d19, d18
77 vmlsl.s32 q8, d19, d18
78 vmlsl.u8 q8, d19, d18
79 vmlsl.u16 q8, d19, d18
80 vmlsl.u32 q8, d19, d18
82 @ CHECK: vmlsl.s8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf2]
83 @ CHECK: vmlsl.s16 q8, d19, d18 @ encoding: [0xa2,0x0a,0xd3,0xf2]
84 @ CHECK: vmlsl.s32 q8, d19, d18 @ encoding: [0xa2,0x0a,0xe3,0xf2]
85 @ CHECK: vmlsl.u8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf3]
[all …]
/external/llvm/test/MC/ARM/
Dneont2-mul-accum-encoding.s79 vmlsl.s8 q8, d19, d18
80 vmlsl.s16 q8, d19, d18
81 vmlsl.s32 q8, d19, d18
82 vmlsl.u8 q8, d19, d18
83 vmlsl.u16 q8, d19, d18
84 vmlsl.u32 q8, d19, d18
85 vmlsl.u16 q11, d25, d1[3]
87 @ CHECK: vmlsl.s8 q8, d19, d18 @ encoding: [0xc3,0xef,0xa2,0x0a]
88 @ CHECK: vmlsl.s16 q8, d19, d18 @ encoding: [0xd3,0xef,0xa2,0x0a]
89 @ CHECK: vmlsl.s32 q8, d19, d18 @ encoding: [0xe3,0xef,0xa2,0x0a]
[all …]
Dneon-mul-accum-encoding.s75 vmlsl.s8 q8, d19, d18
76 vmlsl.s16 q8, d19, d18
77 vmlsl.s32 q8, d19, d18
78 vmlsl.u8 q8, d19, d18
79 vmlsl.u16 q8, d19, d18
80 vmlsl.u32 q8, d19, d18
82 @ CHECK: vmlsl.s8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf2]
83 @ CHECK: vmlsl.s16 q8, d19, d18 @ encoding: [0xa2,0x0a,0xd3,0xf2]
84 @ CHECK: vmlsl.s32 q8, d19, d18 @ encoding: [0xa2,0x0a,0xe3,0xf2]
85 @ CHECK: vmlsl.u8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf3]
[all …]

123