/external/libhevc/common/arm/ |
D | ihevc_intra_pred_luma_vert.s | 211 @vaddl.s8 q1, d25, d27 213 vqmovun.s16 d25, q0 215 @vmovn.u16 d25, q0 224 vbsl d10, d25, d16 236 vshr.s64 d25, d25, #8 240 vbsl d6, d25, d16 246 vshr.s64 d25, d25, #8 265 vbsl d10, d25, d16 271 vshr.s64 d25, d25, #8 278 vbsl d6, d25, d16 [all …]
|
D | ihevc_inter_pred_chroma_horz.s | 127 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1) 175 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 183 vmull.u8 q14,d3,d25 212 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 238 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 250 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 267 vmull.u8 q14,d3,d25 297 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 311 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 319 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 129 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1) 194 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 202 vmull.u8 q14,d3,d25 225 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 253 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 266 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 278 vmull.u8 q14,d3,d25 306 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 320 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 328 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 131 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 159 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 175 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 190 vmlal.s16 q6,d5,d25 202 vmlal.s16 q7,d6,d25 230 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 244 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 266 vmlal.s16 q6,d5,d25 289 vmlal.s16 q7,d6,d25 313 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 140 vdup.u8 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 170 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 191 vmlal.u8 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 212 vmlal.u8 q6,d5,d25 226 vmlal.u8 q7,d6,d25 256 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 281 vmlal.u8 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 307 vmlal.u8 q6,d5,d25 333 vmlal.u8 q7,d6,d25 356 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 139 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 169 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 185 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 200 vmlal.s16 q6,d5,d25 213 vmlal.s16 q7,d6,d25 243 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 258 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 281 vmlal.s16 q6,d5,d25 305 vmlal.s16 q7,d6,d25 330 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ [all …]
|
D | ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 297 vdup.8 d25,d4[3] @(iv) 327 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 333 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 354 vdup.8 d25,d4[7] @(viii) 405 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 414 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 451 vdup.8 d25,d4[3] @(iv) 474 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 480 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 485 vdup.8 d25,d4[7] @(viii) [all …]
|
D | ihevc_intra_pred_luma_mode_27_to_33.s | 191 vdup.8 d25,d4[3] @(iv) 220 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 227 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 250 vdup.8 d25,d4[7] @(viii) 296 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 305 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 341 vdup.8 d25,d4[3] @(iv) 360 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 368 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 371 vdup.8 d25,d4[7] @(viii) [all …]
|
D | ihevc_intra_pred_chroma_mode_27_to_33.s | 189 vdup.8 d25,d4[3] @(iv) 219 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 226 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 249 vdup.8 d25,d4[7] @(viii) 296 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 305 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 341 vdup.8 d25,d4[3] @(iv) 360 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 368 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 371 vdup.8 d25,d4[7] @(viii) [all …]
|
D | ihevc_deblk_luma_horz.s | 123 vdup.32 d25, r11 @-1 value 205 vaddl.u8 q3,d25,d26 275 vaddl.u8 q3,d25,d24 281 vqadd.u8 d30,d25,d1 283 vqsub.u8 d31,d25,d1 424 @ vdup.32 d25, r11 @-1 value 438 vsubl.u8 q5,d26,d25 474 vmovl.u8 q3,d25 498 vaddl.u8 q7,d23,d25 520 vbsl d19,d25,d12
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 175 …vqrshrun.s16 d25, q9, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r… 178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1 353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4) 362 …vext.16 d31, d25, d25, #1 @//extract a[5] (set5) ;//here only fi… 367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5) 370 vext.16 d29, d24, d25, #3 @//extract a[3] (set5) 372 vext.16 d31, d24, d25, #1 @//extract a[1] (set5) 379 vmlsl.s16 q11, d25, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set5) 458 vext.16 d31, d24, d25, #1 @//extract a[5] (set4) 467 …vext.16 d31, d25, d25, #1 @//extract a[5] (set5) ;//here only fi… [all …]
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | neont2-pairwise-encoding.s | 45 vpadal.u8 d14, d25 58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm | 68 vst1.u8 {d25}, [r8@64], r1 ; store op1 99 vst1.u8 {d25}, [r8@64], r1 ; store op4 219 vswp d23, d25 221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1 [all …]
|
D | loopfilter_8_neon.asm | 247 vabd.u8 d25, d6, d4 ; m7 = abs(p0 - p2) 268 vmax.u8 d25, d25, d26 ; m4 = max(m7, m8) 273 vmax.u8 d25, d25, d26 ; m4 = max(m4, m5) 277 vmax.u8 d20, d20, d25 ; m2 = max(m2, m4) 315 veor d25, d5, d22 ; ps1 322 vqsub.s8 d29, d25, d26 ; filter = clamp(ps1-qs1) 349 vqadd.s8 d25, d25, d29 ; op1 = clamp(ps1 + filter)
|
D | vpx_convolve8_neon_asm.asm | 78 vld1.8 {d25}, [r0], r1 83 vtrn.8 d24, d25 89 vmovl.u8 q9, d25 127 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 238 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 259 vmov d22, d25
|
/external/vixl/test/aarch32/ |
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 402 {{F64, d16, d17, d25}, 467 {{F64, d27, d25, d7}, 497 {{F64, d25, d14, d25}, 552 {{F64, d25, d29, d17}, 567 {{F64, d3, d4, d25}, 637 {{F64, d17, d25, d11}, 697 {{F64, d25, d26, d10}, 787 {{F64, d1, d25, d1}, 857 {{F64, d18, d18, d25}, 867 {{F64, d25, d21, d21}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 402 {{F64, d16, d17, d25}, 467 {{F64, d27, d25, d7}, 497 {{F64, d25, d14, d25}, 552 {{F64, d25, d29, d17}, 567 {{F64, d3, d4, d25}, 637 {{F64, d17, d25, d11}, 697 {{F64, d25, d26, d10}, 787 {{F64, d1, d25, d1}, 857 {{F64, d18, d18, d25}, 867 {{F64, d25, d21, d21}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 111 {{F64, d11, d25, d14}, false, al, "F64 d11 d25 d14", "F64_d11_d25_d14"}, 129 {{F32, d1, d15, d25}, false, al, "F32 d1 d15 d25", "F32_d1_d15_d25"}, 160 {{F64, d20, d25, d20}, false, al, "F64 d20 d25 d20", "F64_d20_d25_d20"}, 179 {{F64, d25, d23, d24}, false, al, "F64 d25 d23 d24", "F64_d25_d23_d24"}, 185 {{F32, d25, d23, d17}, false, al, "F32 d25 d23 d17", "F32_d25_d23_d17"}, 186 {{F64, d13, d25, d3}, false, al, "F64 d13 d25 d3", "F64_d13_d25_d3"},
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 111 {{F64, d11, d25, d14}, false, al, "F64 d11 d25 d14", "F64_d11_d25_d14"}, 129 {{F32, d1, d15, d25}, false, al, "F32 d1 d15 d25", "F32_d1_d15_d25"}, 160 {{F64, d20, d25, d20}, false, al, "F64 d20 d25 d20", "F64_d20_d25_d20"}, 179 {{F64, d25, d23, d24}, false, al, "F64 d25 d23 d24", "F64_d25_d23_d24"}, 185 {{F32, d25, d23, d17}, false, al, "F32 d25 d23 d17", "F32_d25_d23_d17"}, 186 {{F64, d13, d25, d3}, false, al, "F64 d13 d25 d3", "F64_d13_d25_d3"},
|
/external/libhevc/common/arm64/ |
D | ihevc_intra_pred_luma_vert.s | 236 sshr d25, d25,#8 246 sshr d25, d25,#8 271 sshr d25, d25,#8 284 sshr d25, d25,#8 301 sshr d25, d25,#8
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
D | neont2-pairwise-encoding.s | 45 vpadal.u8 d14, d25 58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
/external/valgrind/none/tests/arm/ |
D | vfpv4_fma.c | 87 …TESTINSN_bin_f64("vfma.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0… in main() 88 …a.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f… in main() 90 …TESTINSN_bin_f64("vfma.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32… in main() 100 …TESTINSN_bin_f64("vfma.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i3… in main() 137 …TESTINSN_bin_f64("vfms.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0… in main() 138 …s.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f… in main() 140 …TESTINSN_bin_f64("vfms.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32… in main() 150 …TESTINSN_bin_f64("vfms.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i3… in main() 187 …TESTINSN_bin_f64("vfnma.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u… in main() 188 …a.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f… in main() [all …]
|
/external/capstone/suite/MC/ARM/ |
D | neont2-pairwise-encoding.s.cs | 21 0xb0,0xff,0xa9,0xe6 = vpadal.u8 d14, d25 34 0x59,0xff,0x9e,0x4a = vpmin.u16 d20, d25, d14 42 0x29,0xff,0x8c,0x8a = vpmax.u32 d8, d25, d12
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 253 vld1.8 {d24-d25},[r5,: 128]! 513 vld1.8 {d25},[r2,: 64] 522 vtrn.32 d24,d25 545 vmlal.s32 q8,d25,d0 587 vmlal.s32 q7,d25,d20 604 vmlal.s32 q4,d25,d27 606 vmlal.s32 q8,d25,d26 621 vmlal.s32 q7,d25,d31 669 vld1.8 {d24-d25},[r2,: 128] 834 vld1.8 {d25},[r2,: 64] [all …]
|