Home
last modified time | relevance | path

Searched refs:d24 (Results 1 – 25 of 145) sorted by relevance

123456

/external/libhevc/common/arm/
Dihevc_intra_pred_luma_vert.s204 @vaddl.s8 q0, d24, d26
214 vqmovun.s16 d24, q14
216 @vmovn.u16 d24, q1
223 vbsl d18, d24, d16 @only select row values from q12(predpixel)
233 vshr.s64 d24, d24, #8
239 vbsl d8, d24, d16
243 vshr.s64 d24, d24, #8
264 vbsl d18, d24, d16 @only select row values from q12(predpixel)
268 vshr.s64 d24, d24, #8
277 vbsl d8, d24, d16
[all …]
Dihevc_inter_pred_chroma_horz.s125 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)
177 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
185 vmlsl.u8 q14,d1,d24
217 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
240 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
253 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
271 vmlsl.u8 q14,d1,d24
302 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
313 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
323 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
[all …]
Dihevc_inter_pred_chroma_horz_w16out.s127 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)
196 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
205 vmlsl.u8 q14,d1,d24
236 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
256 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
269 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
282 vmlsl.u8 q14,d1,d24
311 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
322 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
332 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
[all …]
Dihevc_inter_pred_filters_luma_vert_w16inp.s130 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
157 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
173 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
189 vmlal.s16 q6,d4,d24
201 vmlal.s16 q7,d5,d24
229 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
243 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
263 vmlal.s16 q6,d4,d24
286 vmlal.s16 q7,d5,d24
312 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
[all …]
Dihevc_inter_pred_filters_luma_vert.s139 vdup.u8 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
168 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
188 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@
211 vmlsl.u8 q6,d4,d24
225 vmlsl.u8 q7,d5,d24
253 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
278 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@
304 vmlsl.u8 q6,d4,d24
331 vmlsl.u8 q7,d5,d24
355 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
[all …]
Dihevc_inter_pred_luma_vert_w16inp_w16out.s138 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
167 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
183 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
199 vmlal.s16 q6,d4,d24
212 vmlal.s16 q7,d5,d24
242 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
257 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
278 vmlal.s16 q6,d4,d24
302 vmlal.s16 q7,d5,d24
329 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s246 vqshrn.s32 d24,q12,#6 @right shift
259 vqrshrun.s16 d24,q12,#6 @rounding shift
265 vst1.32 {d24[0]},[r9] @stores the loaded value
300 vqshrn.s32 d24,q12,#6 @right shift
311 vqrshrun.s16 d24,q12,#6 @rounding shift
322 vst1.32 {d24[0]},[r9] @stores the loaded value
337 vqshrn.s32 d24,q12,#6 @right shift
339 vqrshrun.s16 d24,q12,#6 @rounding shift
341 vst1.32 {d24[0]},[r9] @stores the loaded value
Dihevc_intra_pred_filters_luma_mode_11_to_17.s330 vrshrn.i16 d24, q12, #5 @round shft (row 0)
340 vst1.8 d24, [r2], r3 @st (row 0)
374 vrshrn.i16 d24, q12, #5 @round shft (row 4)
384 vst1.8 d24, [r2], r3 @st (row 4)
452 vst1.8 d24, [r5], r3 @st (row 4)
453 vrshrn.i16 d24, q11, #5 @round shft (row 5)
473 vst1.8 d24, [r5], r3 @(from previous loop)st (row 5)
499 vrshrn.i16 d24, q12, #5 @round shft (row 0)
515 vst1.8 d24, [r2], r3 @st (row 0)
558 vrshrn.i16 d24, q12, #5 @round shft (row 4)
[all …]
/external/libhevc/common/arm64/
Dihevc_intra_pred_luma_vert.s233 sshr d24, d24,#8
243 sshr d24, d24,#8
268 sshr d24, d24,#8
281 sshr d24, d24,#8
298 sshr d24, d24,#8
355 sshr d24, d24,#8
362 sshr d24, d24,#8
369 sshr d24, d24,#8
376 sshr d24, d24,#8
383 sshr d24, d24,#8
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s174 …vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r…
178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1
338 vext.16 d31, d23, d24, #1 @//extract a[5] (set3)
353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4)
356 vext.16 d30, d23, d24, #2 @//extract a[2] (set4)
358 vext.16 d29, d23, d24, #3 @//extract a[3] (set4)
361 vext.16 d28, d23, d24, #1 @//extract a[1] (set4)
366 vmlsl.s16 q13, d24, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set4)
367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5)
369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5)
[all …]
Dih264e_evaluate_intra16x16_modes_a9q.s196 vadd.i16 d24, d24, d25 @/DC
204 vpaddl.u16 d24, d24 @/DC
208 vpaddl.u32 d24, d24 @/DC
210 vmov.u32 r10, d24[0] @dc
263 vst1.32 {d24, d25} , [r2], r4 @7
Dih264e_evaluate_intra_chroma_modes_a9q.s242 vadd.i16 d24, d24, d25 @/DC
245 vpaddl.u16 d24, d24 @/DC
248 vpaddl.u32 d24, d24 @/DC
254 vmov.u32 r10, d24[0] @dc
310 vst1.32 {d24, d25} , [r2], r4 @2
/external/libvpx/libvpx/vpx_dsp/arm/
Dvpx_convolve8_neon_asm.asm77 vld1.8 {d24}, [r0], r1
83 vtrn.8 d24, d25
88 vmovl.u8 q8, d24
124 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
125 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
126 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
127 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
210 vld1.u32 {d24[0]}, [r7], r1
213 vld1.u32 {d24[1]}, [r4], r1
216 vmovl.u8 q12, d24
[all …]
Dloopfilter_16_neon.asm69 vst1.u8 {d24}, [r8@64], r1 ; store op0
98 vst1.u8 {d24}, [r8@64], r1 ; store op5
221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1
222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1
223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1
224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1
225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1
226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1
227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1
228 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r1
[all …]
Dvpx_convolve8_avg_neon_asm.asm77 vld1.8 {d24}, [r0], r1
83 vtrn.8 d24, d25
88 vmovl.u8 q8, d24
132 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
133 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
134 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
135 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
221 vld1.u32 {d24[0]}, [r7], r1
224 vld1.u32 {d24[1]}, [r4], r1
227 vmovl.u8 q12, d24
[all …]
Dloopfilter_8_neon.asm241 vabd.u8 d24, d18, d17 ; m6 = abs(q3 - q2)
249 vmax.u8 d23, d23, d24 ; m3 = max(m5, m6)
255 vabd.u8 d24, d6, d7 ; m9 = abs(p0 - q0)
262 vqadd.u8 d24, d24, d24 ; b = abs(p0 - q0) * 2
275 vqadd.u8 d24, d24, d23 ; a = b + a
280 vcge.u8 d24, d0, d24 ; a > blimit
286 vand d19, d19, d24 ; mask
314 veor d24, d6, d22 ; ps0
320 vsub.s8 d28, d21, d24 ; ( qs0 - ps0)
342 vqadd.s8 d24, d24, d30 ; op0 = clamp(ps0 + filter2)
/external/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s254 vmlsl.s16 q9, d28, d24
256 vmlsl.s16 q3, d29, d24
287 vmlsl.s16 q9, d28, d24
292 vmlsl.s16 q3, d29, d24
326 vmlsl.s16 q9, d26, d24
331 vmlsl.s16 q3, d27, d24
350 vmlsl.s16 q9, d10, d24
352 vmlsl.s16 q3, d11, d24
484 vmlsl.s16 q9, d28, d24
486 vmlsl.s16 q3, d29, d24
[all …]
Dih264_inter_pred_filters_luma_horz_a9q.s171 …vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r…
172 vst1.8 {d23, d24}, [r1], r3 @//Store dest row1
185 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1)
191 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
219 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1)
224 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
/external/vixl/test/aarch32/
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc457 {{F64, d3, d19, d24},
482 {{F64, d1, d5, d24},
562 {{F64, d14, d18, d24},
577 {{F64, d29, d27, d24},
602 {{F64, d0, d3, d24},
612 {{F64, d18, d24, d3},
647 {{F64, d24, d0, d5},
657 {{F64, d16, d24, d2},
902 {{F64, d9, d24, d24},
937 {{F64, d24, d5, d5},
[all …]
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc457 {{F64, d3, d19, d24},
482 {{F64, d1, d5, d24},
562 {{F64, d14, d18, d24},
577 {{F64, d29, d27, d24},
602 {{F64, d0, d3, d24},
612 {{F64, d18, d24, d3},
647 {{F64, d24, d0, d5},
657 {{F64, d16, d24, d2},
902 {{F64, d9, d24, d24},
937 {{F64, d24, d5, d5},
[all …]
/external/capstone/suite/MC/AArch64/
Dneon-scalar-abs.s.cs2 0x1d,0xbb,0xe0,0x5e = abs d29, d24
4 0x1d,0xd7,0xf4,0x7e = fabd d29, d24, d20
/external/llvm/test/MC/AArch64/
Dneon-scalar-abs.s9 abs d29, d24
19 fabd d29, d24, d20
/external/capstone/suite/MC/ARM/
Dneon-shiftaccum-encoding.s.cs36 0x38,0x73,0xa0,0xf2 = vrsra.s32 d7, d24, #32
52 0x38,0x83,0xe0,0xf2 = vrsra.s32 d24, d24, #32
76 0x1d,0x84,0xe0,0xf3 = vsri.32 d24, d13, #32
Dneont2-shiftaccum-encoding.s.cs36 0xa0,0xef,0x38,0x73 = vrsra.s32 d7, d24, #32
52 0xe0,0xef,0x38,0x83 = vrsra.s32 d24, d24, #32
76 0xe0,0xff,0x1d,0x84 = vsri.32 d24, d13, #32

123456