/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 107 vext.8 d29, d4, d4, #5 @//extract a[5] (column3,row0) 110 vaddl.u8 q6, d29, d4 @// a0 + a5 (column3,row0) 120 vext.8 d29, d4, d4, #2 @//extract a[2] (column3,row0) 123 vmlal.u8 q6, d29, d1 @// a0 + a5 + 20a2 (column3,row0) 133 vext.8 d29, d4, d4, #3 @//extract a[3] (column3,row0) 136 vmlal.u8 q6, d29, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0) 146 vext.8 d29, d4, d4, #1 @//extract a[1] (column3,row0) 149 vmlsl.u8 q6, d29, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0) 159 vext.8 d29, d4, d4, #4 @//extract a[4] (column3,row0) 162 vmlsl.u8 q6, d29, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0) [all …]
|
D | ih264e_evaluate_intra_chroma_modes_a9q.s | 136 vdup.16 d29, d16[1] 144 vdup.16 d29, d16[1] 152 vdup.16 d29, d16[3] 180 vabdl.u8 q12, d1, d29 216 vabal.u8 q12, d1, d29 314 vst1.32 {d28, d29} , [r2], r4 @4 330 vst1.32 {d28, d29} , [r2], r4 @0 331 vst1.32 {d28, d29} , [r2], r4 @1 332 vst1.32 {d28, d29} , [r2], r4 @2 333 vst1.32 {d28, d29} , [r2], r4 @3
|
D | ih264e_evaluate_intra4x4_modes_a9q.s | 159 vadd.i16 d28, d29, d28 185 vadd.i16 d28, d29, d28 221 vadd.i16 d28, d29, d28 270 vadd.i16 d28, d29, d28 299 vadd.i16 d28, d29, d28 337 vadd.i16 d28, d29, d28 374 vadd.i16 d28, d29, d28 402 vadd.i16 d28, d29, d28 438 vadd.i16 d28, d29, d28
|
/external/boringssl/linux-arm/crypto/fipsmodule/ |
D | armv4-mont.S | 633 vmlal.u32 q6,d29,d4[0] 634 vmlal.u32 q7,d29,d4[1] 635 vmlal.u32 q8,d29,d5[0] 636 vmlal.u32 q9,d29,d5[1] 637 vmlal.u32 q10,d29,d6[0] 638 vmlal.u32 q11,d29,d6[1] 639 vmlal.u32 q12,d29,d7[0] 640 vmlal.u32 q13,d29,d7[1] 645 vld1.32 {d29},[r10,:64]! @ pull smashed m[8*i+1] 677 vmlal.u32 q8,d29,d4[0] [all …]
|
/external/boringssl/ios-arm/crypto/fipsmodule/ |
D | armv4-mont.S | 636 vmlal.u32 q6,d29,d4[0] 637 vmlal.u32 q7,d29,d4[1] 638 vmlal.u32 q8,d29,d5[0] 639 vmlal.u32 q9,d29,d5[1] 640 vmlal.u32 q10,d29,d6[0] 641 vmlal.u32 q11,d29,d6[1] 642 vmlal.u32 q12,d29,d7[0] 643 vmlal.u32 q13,d29,d7[1] 648 vld1.32 {d29},[r10,:64]! @ pull smashed m[8*i+1] 680 vmlal.u32 q8,d29,d4[0] [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_intra_pred_chroma_mode_3_to_9.s | 181 vmov.i8 d29, #31 @contains #31 for vand operation 188 vand d6, d6, d29 @fract values in d1/ idx values in d0 189 vmov.i8 d29, #2 @contains #2 for adding to get ref_main_idx + 1 200 vsub.s8 d9, d8, d29 @ref_main_idx + 1 (row 0) 205 vsub.s8 d4, d8, d29 @ref_main_idx (row 1) 206 vsub.s8 d5, d9, d29 @ref_main_idx + 1 (row 1) 208 vmov.i8 d29, #4 215 vsub.s8 d8, d8, d29 @ref_main_idx (row 2) 216 vsub.s8 d9, d9, d29 @ref_main_idx + 1 (row 2) 225 vsub.s8 d4, d4, d29 @ref_main_idx (row 3) [all …]
|
D | ihevc_intra_pred_filters_chroma_mode_11_to_17.s | 293 vmov.i8 d29, #31 @contains #31 for vand operation 301 vand d6, d6, d29 @fract values in d1/ idx values in d0 304 vmov.i8 d29, #2 @contains #2 for adding to get ref_main_idx + 1 308 vadd.u8 d27,d27,d29 313 vadd.s8 d9, d8, d29 @ref_main_idx + 1 (row 0) 318 vadd.s8 d4, d8, d29 @ref_main_idx (row 1) 319 vadd.s8 d5, d9, d29 @ref_main_idx + 1 (row 1) 322 vmov.i8 d29, #4 329 vadd.s8 d8, d8, d29 @ref_main_idx (row 2) 330 vadd.s8 d9, d9, d29 @ref_main_idx + 1 (row 2) [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 135 vdup.16 d29,d1[3] @coeffabs_7 = vdup_lane_u8(coeffabs, 7)@ 165 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ 181 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 194 vmlal.s16 q6,d17,d29 210 vmlal.s16 q7,d18,d29 234 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ 252 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 277 vmlal.s16 q6,d17,d29 297 vmlal.s16 q7,d18,d29 317 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 144 vdup.u8 d29,d0[7] @coeffabs_7 = vdup_lane_u8(coeffabs, 7)@ 178 vmlsl.u8 q4,d7,d29 @mul_res1 = vmlsl_u8(mul_res1, src_tmp4, coeffabs_7)@ 201 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)@ 216 vmlsl.u8 q6,d17,d29 234 vmlsl.u8 q7,d18,d29 266 vmlsl.u8 q4,d7,d29 @mul_res1 = vmlsl_u8(mul_res1, src_tmp4, coeffabs_7)@ 292 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)@ 319 vmlsl.u8 q6,d17,d29 341 vmlsl.u8 q7,d18,d29 360 vmlsl.u8 q4,d7,d29 @mul_res1 = vmlsl_u8(mul_res1, src_tmp4, coeffabs_7)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 143 vdup.16 d29,d1[3] @coeffabs_7 = vdup_lane_u8(coeffabs, 7)@ 175 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ 191 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 204 vmlal.s16 q6,d17,d29 221 vmlal.s16 q7,d18,d29 247 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ 266 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 292 vmlal.s16 q6,d17,d29 313 vmlal.s16 q7,d18,d29 334 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ [all …]
|
D | ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 272 vdup.8 d29,d4[1] @(ii) 294 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 302 vmlal.u8 q7,d13,d29 @(ii)vmull_u8(ref_main_idx_1, dup_const_fract) 323 vdup.8 d29,d4[5] @(vi) 358 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 364 vmlal.u8 q7,d13,d29 @(vi)vmull_u8(ref_main_idx_1, dup_const_fract) 416 vdup.8 d29,d4[1] @(ii) 439 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 446 vmlal.u8 q7,d13,d29 @(ii)vmull_u8(ref_main_idx_1, dup_const_fract) 476 vdup.8 d29,d4[5] @(vi) [all …]
|
D | ihevc_intra_pred_luma_mode_27_to_33.s | 163 vdup.8 d29,d4[1] @(ii) 188 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 196 vmlal.u8 q7,d13,d29 @(ii)vmull_u8(ref_main_idx_1, dup_const_fract) 216 vdup.8 d29,d4[5] @(vi) 254 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 260 vmlal.u8 q7,d13,d29 @(vi)vmull_u8(ref_main_idx_1, dup_const_fract) 308 vdup.8 d29,d4[1] @(ii) 328 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 336 vmlal.u8 q7,d13,d29 @(ii)vmull_u8(ref_main_idx_1, dup_const_fract) 363 vdup.8 d29,d4[5] @(vi) [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_bilinear_a9q.s | 151 vqrshrun.s16 d29, q11, #1 160 vqrshrun.s16 d29, q9, #1 176 vqrshrun.s16 d29, q11, #1 188 vqrshrun.s16 d29, q9, #1 204 vqrshrun.s16 d29, q11, #1 221 vqrshrun.s16 d29, q9, #1 239 vqrshrun.s16 d29, q11, #1 247 vqrshrun.s16 d29, q9, #1 269 vqrshrun.s16 d29, q11, #1 272 vst1.8 {d29}, [r2], r5 @//Store dest row1 [all …]
|
D | ih264_inter_pred_chroma_a9q.s | 128 vdup.u8 d29, r11 150 vmlal.u8 q5, d3, d29 159 vmlal.u8 q6, d4, d29 177 vmlal.u8 q5, d3, d29 184 vmlal.u8 q6, d4, d29 203 vmlal.u8 q2, d1, d29 218 vmlal.u8 q2, d1, d29 233 vmlal.u8 q2, d1, d29 241 vmlal.u8 q4, d3, d29
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | idct_dequant_full_2x_neon.c | 20 int32x2_t d28, d29, d30, d31; in idct_dequant_full_2x_neon() local 27 d28 = d29 = d30 = d31 = vdup_n_s32(0); in idct_dequant_full_2x_neon() 54 d29 = vld1_lane_s32((const int32_t *)dst0, d29, 0); in idct_dequant_full_2x_neon() 56 d29 = vld1_lane_s32((const int32_t *)dst1, d29, 1); in idct_dequant_full_2x_neon() 153 vaddw_u8(vreinterpretq_u16_s16(q2tmp2.val[1]), vreinterpret_u8_s32(d29))); in idct_dequant_full_2x_neon() 160 d29 = vreinterpret_s32_u8(vqmovun_s16(q5)); in idct_dequant_full_2x_neon() 170 vst1_lane_s32((int32_t *)dst0, d29, 0); in idct_dequant_full_2x_neon() 172 vst1_lane_s32((int32_t *)dst1, d29, 1); in idct_dequant_full_2x_neon()
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_8_neon.asm | 322 vqsub.s8 d29, d25, d26 ; filter = clamp(ps1-qs1) 326 vand d29, d29, d23 ; filter &= hev 328 vaddw.s8 q15, q15, d29 ; filter + 3 * (qs0 - ps0) 330 vmov.u8 d29, #4 338 vqadd.s8 d29, d28, d29 ; filter1 = clamp(filter+4) 340 vshr.s8 d29, d29, #3 ; filter1 >>= 3 343 vqsub.s8 d21, d21, d29 ; oq0 = clamp(qs0 - filter1) 346 vrshr.s8 d29, d29, #1 347 vbic d29, d29, d23 ; filter &= ~hev 349 vqadd.s8 d25, d25, d29 ; op1 = clamp(ps1 + filter) [all …]
|
D | loopfilter_16_neon.asm | 433 vabd.u8 d29, d15, d8 ; abs(q7 - q0) 439 vmax.u8 d25, d28, d29 ; max(abs(p7 - p0), abs(q7 - q0)) 467 vqsub.s8 d29, d25, d26 ; filter = clamp(ps1-qs1) 469 vand d29, d29, d21 ; filter &= hev 470 vaddw.s8 q15, q15, d29 ; filter + 3 * (qs0 - ps0) 471 vmov.u8 d29, #4 479 vqadd.s8 d29, d28, d29 ; filter1 = clamp(filter+4) 481 vshr.s8 d29, d29, #3 ; filter1 >>= 3 485 vqsub.s8 d23, d23, d29 ; oq0 = clamp(qs0 - filter1) 488 vrshr.s8 d29, d29, #1 [all …]
|
/external/vixl/test/aarch32/ |
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 98 {{F64, d21, d29, d16}, false, al, "F64 d21 d29 d16", "F64_d21_d29_d16"}, 106 {{F64, d29, d21, d18}, false, al, "F64 d29 d21 d18", "F64_d29_d21_d18"}, 107 {{F64, d28, d29, d29}, false, al, "F64 d28 d29 d29", "F64_d28_d29_d29"}, 117 {{F32, d29, d19, d6}, false, al, "F32 d29 d19 d6", "F32_d29_d19_d6"}, 119 {{F32, d12, d18, d29}, false, al, "F32 d12 d18 d29", "F32_d12_d18_d29"}, 122 {{F64, d11, d0, d29}, false, al, "F64 d11 d0 d29", "F64_d11_d0_d29"}, 127 {{F64, d29, d3, d28}, false, al, "F64 d29 d3 d28", "F64_d29_d3_d28"}, 131 {{F64, d29, d23, d10}, false, al, "F64 d29 d23 d10", "F64_d29_d23_d10"}, 174 {{F64, d17, d13, d29}, false, al, "F64 d17 d13 d29", "F64_d17_d13_d29"}, 177 {{F64, d31, d1, d29}, false, al, "F64 d31 d1 d29", "F64_d31_d1_d29"},
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 98 {{F64, d21, d29, d16}, false, al, "F64 d21 d29 d16", "F64_d21_d29_d16"}, 106 {{F64, d29, d21, d18}, false, al, "F64 d29 d21 d18", "F64_d29_d21_d18"}, 107 {{F64, d28, d29, d29}, false, al, "F64 d28 d29 d29", "F64_d28_d29_d29"}, 117 {{F32, d29, d19, d6}, false, al, "F32 d29 d19 d6", "F32_d29_d19_d6"}, 119 {{F32, d12, d18, d29}, false, al, "F32 d12 d18 d29", "F32_d12_d18_d29"}, 122 {{F64, d11, d0, d29}, false, al, "F64 d11 d0 d29", "F64_d11_d0_d29"}, 127 {{F64, d29, d3, d28}, false, al, "F64 d29 d3 d28", "F64_d29_d3_d28"}, 131 {{F64, d29, d23, d10}, false, al, "F64 d29 d23 d10", "F64_d29_d23_d10"}, 174 {{F64, d17, d13, d29}, false, al, "F64 d17 d13 d29", "F64_d17_d13_d29"}, 177 {{F64, d31, d1, d29}, false, al, "F64 d31 d1 d29", "F64_d31_d1_d29"},
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 382 {{F64, d18, d11, d29}, 492 {{F64, d30, d29, d10}, 552 {{F64, d25, d29, d17}, 572 {{F64, d29, d10, d21}, 577 {{F64, d29, d27, d24}, 732 {{F64, d14, d29, d3}, 742 {{F64, d9, d30, d29}, 777 {{F64, d26, d23, d29}, 957 {{F64, d18, d29, d29}, 982 {{F64, d20, d29, d29}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 382 {{F64, d18, d11, d29}, 492 {{F64, d30, d29, d10}, 552 {{F64, d25, d29, d17}, 572 {{F64, d29, d10, d21}, 577 {{F64, d29, d27, d24}, 732 {{F64, d14, d29, d3}, 742 {{F64, d9, d30, d29}, 777 {{F64, d26, d23, d29}, 957 {{F64, d18, d29, d29}, 982 {{F64, d20, d29, d29}, [all …]
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 257 vld1.8 {d28-d29},[r7,: 128]! 511 vld1.8 {d28-d29},[r2,: 128]! 543 vmlal.s32 q8,d29,d1 564 vmlal.s32 q7,d29,d0 589 vmlal.s32 q4,d29,d20 605 vmlal.s32 q8,d29,d27 608 vmlal.s32 q7,d29,d26 610 vld1.8 {d28-d29},[r2,: 128] 611 vmlal.s32 q4,d24,d29 612 vmlal.s32 q8,d23,d29 [all …]
|
/external/capstone/suite/MC/AArch64/ |
D | neon-scalar-abs.s.cs | 2 0x1d,0xbb,0xe0,0x5e = abs d29, d24 4 0x1d,0xd7,0xf4,0x7e = fabd d29, d24, d20
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-abs.s | 9 abs d29, d24 19 fabd d29, d24, d20
|