/external/libhevc/common/arm/ |
D | ihevc_intra_pred_luma_vert.s | 204 @vaddl.s8 q0, d24, d26 214 vqmovun.s16 d24, q14 216 @vmovn.u16 d24, q1 223 vbsl d18, d24, d16 @only select row values from q12(predpixel) 233 vshr.s64 d24, d24, #8 239 vbsl d8, d24, d16 243 vshr.s64 d24, d24, #8 264 vbsl d18, d24, d16 @only select row values from q12(predpixel) 268 vshr.s64 d24, d24, #8 277 vbsl d8, d24, d16 [all …]
|
D | ihevc_inter_pred_chroma_horz.s | 125 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0) 177 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 185 vmlsl.u8 q14,d1,d24 217 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 240 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 253 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 271 vmlsl.u8 q14,d1,d24 302 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 313 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 323 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 127 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0) 196 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 205 vmlsl.u8 q14,d1,d24 236 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 256 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 269 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 282 vmlsl.u8 q14,d1,d24 311 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 322 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 332 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 130 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 157 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 173 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 189 vmlal.s16 q6,d4,d24 201 vmlal.s16 q7,d5,d24 229 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 243 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 263 vmlal.s16 q6,d4,d24 286 vmlal.s16 q7,d5,d24 312 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 139 vdup.u8 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 168 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@ 188 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@ 211 vmlsl.u8 q6,d4,d24 225 vmlsl.u8 q7,d5,d24 253 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@ 278 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@ 304 vmlsl.u8 q6,d4,d24 331 vmlsl.u8 q7,d5,d24 355 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 138 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 167 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 183 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 199 vmlal.s16 q6,d4,d24 212 vmlal.s16 q7,d5,d24 242 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 257 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 278 vmlal.s16 q6,d4,d24 302 vmlal.s16 q7,d5,d24 329 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 246 vqshrn.s32 d24,q12,#6 @right shift 259 vqrshrun.s16 d24,q12,#6 @rounding shift 265 vst1.32 {d24[0]},[r9] @stores the loaded value 300 vqshrn.s32 d24,q12,#6 @right shift 311 vqrshrun.s16 d24,q12,#6 @rounding shift 322 vst1.32 {d24[0]},[r9] @stores the loaded value 337 vqshrn.s32 d24,q12,#6 @right shift 339 vqrshrun.s16 d24,q12,#6 @rounding shift 341 vst1.32 {d24[0]},[r9] @stores the loaded value
|
D | ihevc_intra_pred_filters_luma_mode_11_to_17.s | 330 vrshrn.i16 d24, q12, #5 @round shft (row 0) 340 vst1.8 d24, [r2], r3 @st (row 0) 374 vrshrn.i16 d24, q12, #5 @round shft (row 4) 384 vst1.8 d24, [r2], r3 @st (row 4) 452 vst1.8 d24, [r5], r3 @st (row 4) 453 vrshrn.i16 d24, q11, #5 @round shft (row 5) 473 vst1.8 d24, [r5], r3 @(from previous loop)st (row 5) 499 vrshrn.i16 d24, q12, #5 @round shft (row 0) 515 vst1.8 d24, [r2], r3 @st (row 0) 558 vrshrn.i16 d24, q12, #5 @round shft (row 4) [all …]
|
/external/libhevc/common/arm64/ |
D | ihevc_intra_pred_luma_vert.s | 233 sshr d24, d24,#8 243 sshr d24, d24,#8 268 sshr d24, d24,#8 281 sshr d24, d24,#8 298 sshr d24, d24,#8 355 sshr d24, d24,#8 362 sshr d24, d24,#8 369 sshr d24, d24,#8 376 sshr d24, d24,#8 383 sshr d24, d24,#8 [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 174 …vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r… 178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1 338 vext.16 d31, d23, d24, #1 @//extract a[5] (set3) 353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4) 356 vext.16 d30, d23, d24, #2 @//extract a[2] (set4) 358 vext.16 d29, d23, d24, #3 @//extract a[3] (set4) 361 vext.16 d28, d23, d24, #1 @//extract a[1] (set4) 366 vmlsl.s16 q13, d24, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set4) 367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5) 369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5) [all …]
|
D | ih264e_evaluate_intra16x16_modes_a9q.s | 196 vadd.i16 d24, d24, d25 @/DC 204 vpaddl.u16 d24, d24 @/DC 208 vpaddl.u32 d24, d24 @/DC 210 vmov.u32 r10, d24[0] @dc 263 vst1.32 {d24, d25} , [r2], r4 @7
|
D | ih264e_evaluate_intra_chroma_modes_a9q.s | 242 vadd.i16 d24, d24, d25 @/DC 245 vpaddl.u16 d24, d24 @/DC 248 vpaddl.u32 d24, d24 @/DC 254 vmov.u32 r10, d24[0] @dc 310 vst1.32 {d24, d25} , [r2], r4 @2
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | vpx_convolve8_neon_asm.asm | 77 vld1.8 {d24}, [r0], r1 83 vtrn.8 d24, d25 88 vmovl.u8 q8, d24 124 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 125 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 126 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 127 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 210 vld1.u32 {d24[0]}, [r7], r1 213 vld1.u32 {d24[1]}, [r4], r1 216 vmovl.u8 q12, d24 [all …]
|
D | loopfilter_16_neon.asm | 69 vst1.u8 {d24}, [r8@64], r1 ; store op0 98 vst1.u8 {d24}, [r8@64], r1 ; store op5 221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1 228 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r1 [all …]
|
D | vpx_convolve8_avg_neon_asm.asm | 77 vld1.8 {d24}, [r0], r1 83 vtrn.8 d24, d25 88 vmovl.u8 q8, d24 132 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 133 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 134 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 135 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 221 vld1.u32 {d24[0]}, [r7], r1 224 vld1.u32 {d24[1]}, [r4], r1 227 vmovl.u8 q12, d24 [all …]
|
D | loopfilter_8_neon.asm | 241 vabd.u8 d24, d18, d17 ; m6 = abs(q3 - q2) 249 vmax.u8 d23, d23, d24 ; m3 = max(m5, m6) 255 vabd.u8 d24, d6, d7 ; m9 = abs(p0 - q0) 262 vqadd.u8 d24, d24, d24 ; b = abs(p0 - q0) * 2 275 vqadd.u8 d24, d24, d23 ; a = b + a 280 vcge.u8 d24, d0, d24 ; a > blimit 286 vand d19, d19, d24 ; mask 314 veor d24, d6, d22 ; ps0 320 vsub.s8 d28, d21, d24 ; ( qs0 - ps0) 342 vqadd.s8 d24, d24, d30 ; op0 = clamp(ps0 + filter2)
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 254 vmlsl.s16 q9, d28, d24 256 vmlsl.s16 q3, d29, d24 287 vmlsl.s16 q9, d28, d24 292 vmlsl.s16 q3, d29, d24 326 vmlsl.s16 q9, d26, d24 331 vmlsl.s16 q3, d27, d24 350 vmlsl.s16 q9, d10, d24 352 vmlsl.s16 q3, d11, d24 484 vmlsl.s16 q9, d28, d24 486 vmlsl.s16 q3, d29, d24 [all …]
|
D | ih264_inter_pred_filters_luma_horz_a9q.s | 171 …vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r… 172 vst1.8 {d23, d24}, [r1], r3 @//Store dest row1 185 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1) 191 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 219 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1) 224 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
|
/external/vixl/test/aarch32/ |
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 457 {{F64, d3, d19, d24}, 482 {{F64, d1, d5, d24}, 562 {{F64, d14, d18, d24}, 577 {{F64, d29, d27, d24}, 602 {{F64, d0, d3, d24}, 612 {{F64, d18, d24, d3}, 647 {{F64, d24, d0, d5}, 657 {{F64, d16, d24, d2}, 902 {{F64, d9, d24, d24}, 937 {{F64, d24, d5, d5}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 457 {{F64, d3, d19, d24}, 482 {{F64, d1, d5, d24}, 562 {{F64, d14, d18, d24}, 577 {{F64, d29, d27, d24}, 602 {{F64, d0, d3, d24}, 612 {{F64, d18, d24, d3}, 647 {{F64, d24, d0, d5}, 657 {{F64, d16, d24, d2}, 902 {{F64, d9, d24, d24}, 937 {{F64, d24, d5, d5}, [all …]
|
/external/capstone/suite/MC/AArch64/ |
D | neon-scalar-abs.s.cs | 2 0x1d,0xbb,0xe0,0x5e = abs d29, d24 4 0x1d,0xd7,0xf4,0x7e = fabd d29, d24, d20
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-abs.s | 9 abs d29, d24 19 fabd d29, d24, d20
|
/external/capstone/suite/MC/ARM/ |
D | neon-shiftaccum-encoding.s.cs | 36 0x38,0x73,0xa0,0xf2 = vrsra.s32 d7, d24, #32 52 0x38,0x83,0xe0,0xf2 = vrsra.s32 d24, d24, #32 76 0x1d,0x84,0xe0,0xf3 = vsri.32 d24, d13, #32
|
D | neont2-shiftaccum-encoding.s.cs | 36 0xa0,0xef,0x38,0x73 = vrsra.s32 d7, d24, #32 52 0xe0,0xef,0x38,0x83 = vrsra.s32 d24, d24, #32 76 0xe0,0xff,0x1d,0x84 = vsri.32 d24, d13, #32
|