/external/libavc/common/arm/ |
D | ih264_inter_pred_filters_luma_horz_a9q.s | 130 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 133 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 138 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 146 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 149 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1) 154 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) 157 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 162 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1) 164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1) [all …]
|
D | ih264_inter_pred_luma_horz_qpel_a9q.s | 137 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 140 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 145 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 148 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 153 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 156 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1) 161 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) 164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 169 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1) 171 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1) [all …]
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/vixl/test/aarch32/ |
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 397 {{F64, d3, d27, d4}, 447 {{F64, d27, d26, d30}, 462 {{F64, d27, d30, d22}, 467 {{F64, d27, d25, d7}, 502 {{F64, d1, d27, d16}, 577 {{F64, d29, d27, d24}, 622 {{F64, d7, d0, d27}, 627 {{F64, d0, d9, d27}, 632 {{F64, d7, d11, d27}, 882 {{F64, d11, d27, d27}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 397 {{F64, d3, d27, d4}, 447 {{F64, d27, d26, d30}, 462 {{F64, d27, d30, d22}, 467 {{F64, d27, d25, d7}, 502 {{F64, d1, d27, d16}, 577 {{F64, d29, d27, d24}, 622 {{F64, d7, d0, d27}, 627 {{F64, d0, d9, d27}, 632 {{F64, d7, d11, d27}, 882 {{F64, d11, d27, d27}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc | 114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"}, 125 {{F32, d27, d13, d30}, false, al, "F32 d27 d13 d30", "F32_d27_d13_d30"}, 130 {{F32, d27, d3, d3}, false, al, "F32 d27 d3 d3", "F32_d27_d3_d3"}, 150 {{F32, d30, d27, d9}, false, al, "F32 d30 d27 d9", "F32_d30_d27_d9"}, 175 {{F32, d0, d27, d19}, false, al, "F32 d0 d27 d19", "F32_d0_d27_d19"}, 181 {{F32, d27, d3, d14}, false, al, "F32 d27 d3 d14", "F32_d27_d3_d14"}, 185 {{F32, d27, d17, d17}, false, al, "F32 d27 d17 d17", "F32_d27_d17_d17"}, 197 {{F32, d27, d11, d10}, false, al, "F32 d27 d11 d10", "F32_d27_d11_d10"},
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc | 114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"}, 125 {{F32, d27, d13, d30}, false, al, "F32 d27 d13 d30", "F32_d27_d13_d30"}, 130 {{F32, d27, d3, d3}, false, al, "F32 d27 d3 d3", "F32_d27_d3_d3"}, 150 {{F32, d30, d27, d9}, false, al, "F32 d30 d27 d9", "F32_d30_d27_d9"}, 175 {{F32, d0, d27, d19}, false, al, "F32 d0 d27 d19", "F32_d0_d27_d19"}, 181 {{F32, d27, d3, d14}, false, al, "F32 d27 d3 d14", "F32_d27_d3_d14"}, 185 {{F32, d27, d17, d17}, false, al, "F32 d27 d17 d17", "F32_d27_d17_d17"}, 197 {{F32, d27, d11, d10}, false, al, "F32 d27 d11 d10", "F32_d27_d11_d10"},
|
/external/libhevc/common/arm/ |
D | ihevc_inter_pred_chroma_horz.s | 134 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3) 181 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 190 vmlsl.u8 q14,d7,d27 234 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 246 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 264 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 278 vmlsl.u8 q14,d7,d27 306 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 317 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 327 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 136 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3) 200 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 210 vmlsl.u8 q14,d7,d27 249 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 262 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 275 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 290 vmlsl.u8 q14,d7,d27 316 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 326 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 336 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 133 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@ 163 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 179 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 192 vmlal.s16 q6,d7,d27 206 vmlal.s16 q7,d16,d27 232 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 246 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 271 vmlal.s16 q6,d7,d27 293 vmlal.s16 q7,d16,d27 315 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 142 vdup.u8 d27,d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@ 174 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@ 195 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@ 214 vmlsl.u8 q6,d7,d27 230 vmlsl.u8 q7,d16,d27 262 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@ 287 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@ 313 vmlsl.u8 q6,d7,d27 337 vmlsl.u8 q7,d16,d27 358 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 141 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@ 173 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 189 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 202 vmlal.s16 q6,d7,d27 217 vmlal.s16 q7,d16,d27 245 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 260 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 286 vmlal.s16 q6,d7,d27 309 vmlal.s16 q7,d16,d27 332 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ [all …]
|
D | ihevc_intra_pred_chroma_dc.s | 135 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 146 vpaddl.u8 d3, d27 161 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 169 vpaddl.u8 d3, d27 255 vld2.s8 {d26,d27},[r8] @load from src[2nt+1] 266 vshl.i64 d2,d27,#32
|
D | ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 293 vdup.8 d27,d4[2] @(iii) 308 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 316 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 339 vdup.8 d27,d4[6] @(vii) 374 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 380 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract) 438 vdup.8 d27,d4[2] @(iii) 455 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 462 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 479 vdup.8 d27,d4[6] @(vii) [all …]
|
D | ihevc_deblk_luma_horz.s | 129 vdup.32 d27,r9 @ 1value 209 vaddw.u8 q4,q3,d27 211 vqadd.u8 d16,d27,d1 217 vqsub.u8 d17,d27,d1 289 vaddl.u8 q5,d23,d27 428 @ vdup.32 d27,r11 @ 1value 444 vsubl.u8 q6,d27,d24 527 vmov d18, d27 532 vsubl.u8 q7,d14,d27 538 vmovl.u8 q8,d27 [all …]
|
D | ihevc_intra_pred_luma_mode_27_to_33.s | 187 vdup.8 d27,d4[2] @(iii) 202 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 210 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 233 vdup.8 d27,d4[6] @(vii) 267 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 273 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract) 327 vdup.8 d27,d4[2] @(iii) 345 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 352 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 367 vdup.8 d27,d4[6] @(vii) [all …]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | idct4x4_add_neon.asm | 92 vrshrn.s32 d27, q14, #14 143 vrshrn.s32 d27, q14, #14 167 vld1.32 {d27[1]}, [r1], r2 168 vld1.32 {d27[0]}, [r1] ; no post-increment 172 vaddw.u8 q9, q9, d27 176 vqmovun.s16 d27, q9 181 vst1.32 {d27[0]}, [r1], r2 182 vst1.32 {d27[1]}, [r1], r2
|
D | loopfilter_4_neon.asm | 209 vqsub.s8 d27, d5, d16 ; filter = clamp(ps1-qs1) 214 vand d27, d27, d22 ; filter &= hev 217 vaddw.s8 q12, q12, d27 ; filter + 3 * (qs0 - ps0) 222 vqmovn.s16 d27, q12 224 vand d27, d27, d23 ; filter &= mask 226 vqadd.s8 d28, d27, d19 ; filter2 = clamp(filter+3) 227 vqadd.s8 d27, d27, d17 ; filter1 = clamp(filter+4) 229 vshr.s8 d27, d27, #3 ; filter1 >>= 3 232 vqsub.s8 d26, d7, d27 ; u = clamp(qs0 - filter1) 235 vrshr.s8 d27, d27, #1 ; filter = ++filter1 >> 1 [all …]
|
D | loopfilter_16_neon.asm | 101 vst1.u8 {d27}, [r8@64], r1 ; store op2 264 vtrn.32 d16, d27 271 vtrn.16 d27, d19 275 vtrn.8 d26, d27 303 vst1.8 {d27}, [r8@64], r1 398 vabd.u8 d27, d4, d7 ; abs(p3 - p0) 403 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0)) 431 vabd.u8 d27, d14, d8 ; abs(q6 - q0) 438 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0)) 442 vmax.u8 d27, d24, d25 [all …]
|
D | vpx_convolve8_neon_asm.asm | 80 vld1.8 {d27}, [r0], r8 84 vtrn.8 d26, d27 91 vmovl.u8 q11, d27 126 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 127 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 233 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 238 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
|
D | vpx_convolve8_avg_neon_asm.asm | 80 vld1.8 {d27}, [r0], r8 84 vtrn.8 d26, d27 91 vmovl.u8 q11, d27 134 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 135 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 249 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 254 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 111 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 115 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 124 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 128 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 137 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1) 150 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) 154 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 163 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1) 167 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1) [all …]
|
/external/boringssl/linux-arm/crypto/fipsmodule/ |
D | ghash-armv4.S | 393 vldmia r1,{d26,d27} @ load twisted H 399 veor d28,d26,d27 @ Karatsuba pre-processing 412 vldmia r1,{d26,d27} @ load twisted H 418 veor d28,d26,d27 @ Karatsuba pre-processing 503 vext.8 d16, d27, d27, #1 @ A1 506 vmull.p8 q2, d27, d4 @ E = A*B1 507 vext.8 d18, d27, d27, #2 @ A2 510 vmull.p8 q11, d27, d22 @ G = A*B2 511 vext.8 d20, d27, d27, #3 @ A3 516 vmull.p8 q2, d27, d4 @ I = A*B3 [all …]
|
/external/boringssl/ios-arm/crypto/fipsmodule/ |
D | ghash-armv4.S | 402 vldmia r1,{d26,d27} @ load twisted H 408 veor d28,d26,d27 @ Karatsuba pre-processing 423 vldmia r1,{d26,d27} @ load twisted H 429 veor d28,d26,d27 @ Karatsuba pre-processing 514 vext.8 d16, d27, d27, #1 @ A1 517 vmull.p8 q2, d27, d4 @ E = A*B1 518 vext.8 d18, d27, d27, #2 @ A2 521 vmull.p8 q11, d27, d22 @ G = A*B2 522 vext.8 d20, d27, d27, #3 @ A3 527 vmull.p8 q2, d27, d4 @ I = A*B3 [all …]
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 255 vld1.8 {d26-d27},[r6,: 128]! 509 vld1.8 {d26-d27},[r2,: 128]! 539 vmlal.s32 q8,d27,d3 560 vmlal.s32 q7,d27,d2 577 vmlal.s32 q4,d27,d1 583 vmlal.s32 q8,d27,d0 601 vmlal.s32 q7,d27,d20 603 vld1.8 {d26-d27},[r2,: 128] 604 vmlal.s32 q4,d25,d27 605 vmlal.s32 q8,d29,d27 [all …]
|