/external/libhevc/common/arm/ |
D | ihevc_intra_pred_luma_vert.s | 202 @vaddl.s8 q0, d24, d26 212 vqmovun.s16 d24, q14 214 @vmovn.u16 d24, q1 221 vbsl d18, d24, d16 @only select row values from q12(predpixel) 231 vshr.s64 d24, d24, #8 237 vbsl d8, d24, d16 241 vshr.s64 d24, d24, #8 262 vbsl d18, d24, d16 @only select row values from q12(predpixel) 266 vshr.s64 d24, d24, #8 275 vbsl d8, d24, d16 [all …]
|
D | ihevc_inter_pred_chroma_horz.s | 120 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0) 172 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 180 vmlsl.u8 q14,d1,d24 212 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 235 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 248 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 266 vmlsl.u8 q14,d1,d24 297 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 308 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 318 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 123 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0) 192 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 201 vmlsl.u8 q14,d1,d24 232 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 252 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 265 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 278 vmlsl.u8 q14,d1,d24 307 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 318 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 328 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 125 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 152 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 168 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 184 vmlal.s16 q6,d4,d24 196 vmlal.s16 q7,d5,d24 224 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 238 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 258 vmlal.s16 q6,d4,d24 281 vmlal.s16 q7,d5,d24 307 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 133 vdup.u8 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 162 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@ 182 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@ 205 vmlsl.u8 q6,d4,d24 219 vmlsl.u8 q7,d5,d24 247 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@ 272 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@ 298 vmlsl.u8 q6,d4,d24 325 vmlsl.u8 q7,d5,d24 349 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 133 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 162 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 178 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 194 vmlal.s16 q6,d4,d24 207 vmlal.s16 q7,d5,d24 237 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 252 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 273 vmlal.s16 q6,d4,d24 297 vmlal.s16 q7,d5,d24 324 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 240 vqshrn.s32 d24,q12,#6 @right shift 253 vqrshrun.s16 d24,q12,#6 @rounding shift 259 vst1.32 {d24[0]},[r9] @stores the loaded value 294 vqshrn.s32 d24,q12,#6 @right shift 305 vqrshrun.s16 d24,q12,#6 @rounding shift 316 vst1.32 {d24[0]},[r9] @stores the loaded value 331 vqshrn.s32 d24,q12,#6 @right shift 333 vqrshrun.s16 d24,q12,#6 @rounding shift 335 vst1.32 {d24[0]},[r9] @stores the loaded value
|
D | ihevc_deblk_luma_horz.s | 112 vdup.32 d24,r10 @ -2 value 207 vaddl.u8 q5,d24,d28 267 vaddl.u8 q3,d25,d24 279 vqadd.u8 d16,d24,d1 283 vqsub.u8 d17,d24,d1 413 @ vdup.32 d24,r11 @ -2 value 435 vsubl.u8 q6,d27,d24 478 vmov d18,d24 491 vsubl.u8 q7,d14,d24 498 vmovl.u8 q8,d24 [all …]
|
D | ihevc_intra_pred_filters_luma_mode_11_to_17.s | 327 vrshrn.i16 d24, q12, #5 @round shft (row 0) 337 vst1.8 d24, [r2], r3 @st (row 0) 371 vrshrn.i16 d24, q12, #5 @round shft (row 4) 381 vst1.8 d24, [r2], r3 @st (row 4) 449 vst1.8 d24, [r5], r3 @st (row 4) 450 vrshrn.i16 d24, q11, #5 @round shft (row 5) 470 vst1.8 d24, [r5], r3 @(from previous loop)st (row 5) 496 vrshrn.i16 d24, q12, #5 @round shft (row 0) 512 vst1.8 d24, [r2], r3 @st (row 0) 555 vrshrn.i16 d24, q12, #5 @round shft (row 4) [all …]
|
/external/libhevc/common/arm64/ |
D | ihevc_intra_pred_luma_vert.s | 233 sshr d24, d24,#8 243 sshr d24, d24,#8 268 sshr d24, d24,#8 281 sshr d24, d24,#8 298 sshr d24, d24,#8 355 sshr d24, d24,#8 362 sshr d24, d24,#8 369 sshr d24, d24,#8 376 sshr d24, d24,#8 383 sshr d24, d24,#8 [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 174 …vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r… 178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1 338 vext.16 d31, d23, d24, #1 @//extract a[5] (set3) 353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4) 356 vext.16 d30, d23, d24, #2 @//extract a[2] (set4) 358 vext.16 d29, d23, d24, #3 @//extract a[3] (set4) 361 vext.16 d28, d23, d24, #1 @//extract a[1] (set4) 366 vmlsl.s16 q13, d24, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set4) 367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5) 369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5) [all …]
|
D | ih264e_evaluate_intra16x16_modes_a9q.s | 196 vadd.i16 d24, d24, d25 @/DC 204 vpaddl.u16 d24, d24 @/DC 208 vpaddl.u32 d24, d24 @/DC 210 vmov.u32 r10, d24[0] @dc 263 vst1.32 {d24, d25} , [r2], r4 @7
|
D | ih264e_evaluate_intra_chroma_modes_a9q.s | 242 vadd.i16 d24, d24, d25 @/DC 245 vpaddl.u16 d24, d24 @/DC 248 vpaddl.u32 d24, d24 @/DC 254 vmov.u32 r10, d24[0] @dc 310 vst1.32 {d24, d25} , [r2], r4 @2
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_mb_neon.asm | 67 vst1.u8 {d24}, [r8@64], r1 ; store op0 96 vst1.u8 {d24}, [r8@64], r1 ; store op5 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1 197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r1 [all …]
|
D | vpx_convolve8_neon_asm.asm | 76 vld1.8 {d24}, [r0], r1 82 vtrn.8 d24, d25 87 vmovl.u8 q8, d24 123 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 124 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 125 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 126 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 207 vld1.u32 {d24[0]}, [r7], r1 210 vld1.u32 {d24[1]}, [r4], r1 213 vmovl.u8 q12, d24 [all …]
|
D | vpx_convolve8_avg_neon_asm.asm | 76 vld1.8 {d24}, [r0], r1 82 vtrn.8 d24, d25 87 vmovl.u8 q8, d24 131 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 132 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 133 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 134 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 218 vld1.u32 {d24[0]}, [r7], r1 221 vld1.u32 {d24[1]}, [r4], r1 224 vmovl.u8 q12, d24 [all …]
|
D | loopfilter_8_neon.asm | 201 vabd.u8 d24, d18, d17 ; m6 = abs(q3 - q2) 209 vmax.u8 d23, d23, d24 ; m3 = max(m5, m6) 215 vabd.u8 d24, d6, d7 ; m9 = abs(p0 - q0) 222 vqadd.u8 d24, d24, d24 ; b = abs(p0 - q0) * 2 235 vqadd.u8 d24, d24, d23 ; a = b + a 240 vcge.u8 d24, d0, d24 ; a > blimit 246 vand d19, d19, d24 ; mask 274 veor d24, d6, d22 ; ps0 280 vsub.s8 d28, d21, d24 ; ( qs0 - ps0) 302 vqadd.s8 d24, d24, d30 ; op0 = clamp(ps0 + filter2)
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | neon-shiftaccum-encoding.s | 74 vrsra.s32 d7, d24, #32 92 vrsra.s32 d24, #32 109 @ CHECK: vrsra.s32 d7, d24, #32 @ encoding: [0x38,0x73,0xa0,0xf2] 126 @ CHECK: vrsra.s32 d24, d24, #32 @ encoding: [0x38,0x83,0xe0,0xf2] 152 vsri.32 d24, d13, #32 187 @ CHECK: vsri.32 d24, d13, #32 @ encoding: [0x1d,0x84,0xe0,0xf3]
|
D | neont2-shiftaccum-encoding.s | 77 vrsra.s32 d7, d24, #32 95 vrsra.s32 d24, #32 112 @ CHECK: vrsra.s32 d7, d24, #32 @ encoding: [0xa0,0xef,0x38,0x73] 129 @ CHECK: vrsra.s32 d24, d24, #32 @ encoding: [0xe0,0xef,0x38,0x83] 155 vsri.32 d24, d13, #32 190 @ CHECK: vsri.32 d24, d13, #32 @ encoding: [0xe0,0xff,0x1d,0x84]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 254 vmlsl.s16 q9, d28, d24 256 vmlsl.s16 q3, d29, d24 287 vmlsl.s16 q9, d28, d24 292 vmlsl.s16 q3, d29, d24 326 vmlsl.s16 q9, d26, d24 331 vmlsl.s16 q3, d27, d24 350 vmlsl.s16 q9, d10, d24 352 vmlsl.s16 q3, d11, d24 484 vmlsl.s16 q9, d28, d24 486 vmlsl.s16 q3, d29, d24 [all …]
|
D | ih264_inter_pred_filters_luma_horz_a9q.s | 171 …vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r… 172 vst1.8 {d23, d24}, [r1], r3 @//Store dest row1 185 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1) 191 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 219 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1) 224 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
|
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 195 vmlsl.s16 q13, d24, d30 217 vmlsl.s16 q13, d24, d30 272 vmlsl.s16 q13, d24, d30 294 vmlsl.s16 q13, d24, d30 358 vmlsl.s16 q15, d18, d24 360 vmlsl.s16 q11, d19, d24 387 vmlsl.s16 q15, d18, d24 389 vmlsl.s16 q11, d19, d24 397 vmov d25, d24 450 vmlsl.s16 q15, d18, d24 [all …]
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-abs.s | 9 abs d29, d24 19 fabd d29, d24, d20
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 95 vld1.8 {d24},[r2] 251 vld1.8 {d24-d25},[r5,: 128]! 504 vld1.8 {d24},[r2,: 64] 520 vtrn.32 d24,d25 542 vmlal.s32 q8,d24,d6 552 vmlal.s32 q2,d24,d0 584 vmlal.s32 q7,d24,d21 590 vmlal.s32 q5,d24,d20 609 vmlal.s32 q4,d24,d29 611 vmlal.s32 q8,d24,d28 [all …]
|