/external/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 169 vaddl.u8 q11, d2, d8 176 vmls.u16 q9, q11, q15 177 vaddl.u8 q11, d12, d17 180 vmla.u16 q11, q12, q14 181 vmls.u16 q11, q13, q15 186 vst1.32 {q11}, [r9] 187 vext.16 q11, q9, q10, #5 197 vaddl.s16 q11, d19, d23 198 vmlal.s16 q11, d1, d28 199 vmlsl.s16 q11, d25, d30 [all …]
|
D | ih264_inter_pred_luma_bilinear_a9q.s | 141 vaddl.u8 q11, d1, d5 151 vqrshrun.s16 d29, q11, #1 156 vaddl.u8 q11, d11, d15 164 vqrshrun.s16 d31, q11, #1 170 vaddl.u8 q11, d1, d5 176 vqrshrun.s16 d29, q11, #1 184 vaddl.u8 q11, d11, d15 190 vqrshrun.s16 d31, q11, #1 200 vaddl.u8 q11, d1, d5 204 vqrshrun.s16 d29, q11, #1 [all …]
|
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 146 vaddl.u8 q11, d5, d14 @ temp = src[1_0] + src[4_0] 149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5 151 vaddl.u8 q11, d9, d12 @ temp3 = src[2_0] + src[3_0] 153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20 155 vaddl.u8 q11, d10, d13 @ temp3 = src[2_0] + src[3_0] 157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20 163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1) 168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1) 174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1) 180 vqmovun.s16 d22, q11 [all …]
|
D | ih264_iquant_itrans_recon_a9.s | 142 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15 206 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined 212 vrshr.s16 q11, q11, #6 215 vaddw.u8 q11, q11, d31 218 vqmovun.s16 d1, q11 318 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15 381 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined 388 vrshr.s16 q11, q11, #6 391 vaddw.u8 q11, q11, d29 401 vqmovun.s16 d22, q11 [all …]
|
D | ih264_inter_pred_filters_luma_vert_a9q.s | 110 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11 131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20 141 vmla.u16 q8, q6, q11 148 vmla.u16 q7, q6, q11 155 vmla.u16 q9, q6, q11 162 vmla.u16 q8, q6, q11 170 vmla.u16 q7, q6, q11 176 vmla.u16 q9, q6, q11 190 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 302 vaddl.u8 q11, d3, d18 @// a0 + a5 (column2,row0) 303 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 (column2,row0) 304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0) 305 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0) 306 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0) 318 …vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r… 369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5) 376 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5) 377 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5) 378 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5) [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 214 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1) 248 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 249 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 258 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 264 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 265 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5) 276 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct) 326 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 332 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 333 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5) [all …]
|
D | ihevc_itrans_recon_32x32.s | 235 vmull.s16 q11,d10,d0[0] 236 vmlal.s16 q11,d11,d1[2] 271 vmlal.s16 q11,d12,d3[0] 272 vmlal.s16 q11,d13,d4[2] 305 vmlal.s16 q11,d10,d6[0] 306 vmlal.s16 q11,d11,d7[2] 345 vmlsl.s16 q11,d12,d7[0] 346 vmlsl.s16 q11,d13,d5[2] 381 vmlsl.s16 q11,d10,d0[0] 382 vmlsl.s16 q11,d11,d2[2] [all …]
|
D | ihevc_itrans_recon_16x16.s | 372 vsub.s32 q11,q6,q12 391 vqrshrn.s32 d19,q11,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct) 435 vmull.s16 q11,d10,d0[0] 436 vmlsl.s16 q11,d11,d3[2] 461 vmlsl.s16 q11,d4,d1[0] 462 vmlal.s16 q11,d5,d2[2] 516 vmlal.s16 q11,d10,d0[0] 517 vmlsl.s16 q11,d11,d1[2] 518 vmlsl.s16 q11,d4,d3[0] 519 vmlal.s16 q11,d5,d0[2] [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 182 vaddw.u8 q11, q15, d7 186 vqmovun.s16 d7, q11 469 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1) 503 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 504 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 513 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5) 519 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2) 520 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5) 531 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT) 585 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5) [all …]
|
/external/valgrind/none/tests/arm/ |
D | neon128.c | 376 TESTINSN_imm("vmvn.i32 q11", q11, 0x7FF); in main() 408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); in main() 421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main() 434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main() 440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 464 TESTINSN_bin("veor q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 474 TESTINSN_bin("vbsl q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 484 TESTINSN_bin("vbit q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 494 TESTINSN_bin("vbif q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() [all …]
|
/external/boringssl/linux-arm/crypto/fipsmodule/ |
D | bsaes-armv7.S | 1166 vld1.8 {q10,q11}, [r0]! 1171 veor q2, q2, q11 1220 vld1.8 {q10,q11}, [r0]! 1225 veor q2, q2, q11 1243 vld1.8 {q10,q11}, [r0]! 1248 veor q2, q2, q11 1264 vld1.8 {q10,q11}, [r0]! 1270 veor q2, q2, q11 1451 vld1.8 {q10,q11}, [r0]! 1456 veor q6, q11 [all …]
|
D | ghashv8-armx32.S | 14 vmov.i8 q11,#0xe1 15 vshl.i64 q11,q11,#57 @ 0xc2.0 17 vshr.u64 q10,q11,#63 19 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 41 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 48 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 65 vmov.i8 q11,#0xe1 67 vshl.u64 q11,q11,#57 82 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction 89 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 [all …]
|
/external/boringssl/ios-arm/crypto/fipsmodule/ |
D | bsaes-armv7.S | 1173 vld1.8 {q10,q11}, [r0]! 1178 veor q2, q2, q11 1227 vld1.8 {q10,q11}, [r0]! 1232 veor q2, q2, q11 1250 vld1.8 {q10,q11}, [r0]! 1255 veor q2, q2, q11 1271 vld1.8 {q10,q11}, [r0]! 1277 veor q2, q2, q11 1460 vld1.8 {q10,q11}, [r0]! 1465 veor q6, q11 [all …]
|
D | ghashv8-armx32.S | 15 vmov.i8 q11,#0xe1 16 vshl.i64 q11,q11,#57 @ 0xc2.0 18 vshr.u64 q10,q11,#63 20 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 42 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 49 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 68 vmov.i8 q11,#0xe1 70 vshl.u64 q11,q11,#57 85 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction 92 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 [all …]
|
/external/swiftshader/third_party/subzero/tests_lit/assembler/arm32/ |
D | vldr-vector.ll | 10 ; RUN: -reg-use=q11,r5 \ 16 ; RUN: -reg-use=q11,r5 \ 21 ; RUN: -reg-use=q11,r5 \ 27 ; RUN: -reg-use=q11,r5 \ 37 ; ASM: vld1.32 q11, [r5] 51 ; ASM: vld1.32 q11, [r5] 65 ; ASM: vld1.16 q11, [r5] 79 ; ASM: vld1.8 q11, [r5]
|
D | sub-vec.ll | 7 ; RUN: -reg-use q10,q11 \ 13 ; RUN: -reg-use q10,q11 \ 18 ; RUN: -reg-use q10,q11 \ 24 ; RUN: -reg-use q10,q11 \ 35 ; ASM: vsub.f32 q10, q10, q11 50 ; ASM: vsub.i32 q10, q10, q11 65 ; ASM: vsub.i16 q10, q10, q11 80 ; ASM: vsub.i8 q10, q10, q11
|
D | add-vec.ll | 7 ; RUN: -reg-use q10,q11 \ 13 ; RUN: -reg-use q10,q11 \ 18 ; RUN: -reg-use q10,q11 \ 24 ; RUN: -reg-use q10,q11 \ 35 ; ASM: vadd.f32 q10, q10, q11 50 ; ASM: vadd.i32 q10, q10, q11 65 ; ASM: vadd.i16 q10, q10, q11 80 ; ASM: vadd.i8 q10, q10, q11
|
D | mul-vec.ll | 7 ; RUN: -reg-use q10,q11 \ 13 ; RUN: -reg-use q10,q11 \ 18 ; RUN: -reg-use q10,q11 \ 24 ; RUN: -reg-use q10,q11 \ 35 ; ASM: vmul.f32 q10, q10, q11 50 ; ASM: vmul.i32 q10, q10, q11 65 ; ASM: vmul.i16 q10, q10, q11 80 ; ASM: vmul.i8 q10, q10, q11
|
D | vstr-vector.ll | 10 ; RUN: -reg-use=q11,r5 \ 16 ; RUN: -reg-use=q11,r5 \ 21 ; RUN: -reg-use=q11,r5 \ 27 ; RUN: -reg-use=q11,r5 \ 36 ; ASM: vst1.32 q11, [r5] 49 ; ASM: vst1.32 q11, [r5] 61 ; ASM: vst1.16 q11, [r5] 73 ; ASM: vst1.8 q11, [r5]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | idct_dequant_full_2x_neon.c | 21 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; in idct_dequant_full_2x_neon() local 92 q11 = vqsubq_s16(q2, q3); in idct_dequant_full_2x_neon() 104 q5 = vqaddq_s16(q11, q2); in idct_dequant_full_2x_neon() 105 q6 = vqsubq_s16(q11, q2); in idct_dequant_full_2x_neon() 119 q11 = vqdmulhq_n_s16(q2tmp3.val[1], cospi8sqrt2minus1); in idct_dequant_full_2x_neon() 125 q11 = vshrq_n_s16(q11, 1); in idct_dequant_full_2x_neon() 128 q11 = vqaddq_s16(q2tmp3.val[1], q11); in idct_dequant_full_2x_neon() 130 q8 = vqsubq_s16(q8, q11); in idct_dequant_full_2x_neon()
|
/external/llvm/test/MC/ARM/ |
D | neont2-mul-accum-encoding.s | 45 vqdmlal.s16 q11, d11, d7[0] 46 vqdmlal.s16 q11, d11, d7[1] 47 vqdmlal.s16 q11, d11, d7[2] 48 vqdmlal.s16 q11, d11, d7[3] 52 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0xdb,0xef,0x47,0x63] 53 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0xdb,0xef,0x4f,0x63] 54 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0xdb,0xef,0x67,0x63] 55 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0xdb,0xef,0x6f,0x63] 85 vmlsl.u16 q11, d25, d1[3] 93 @ CHECK: vmlsl.u16 q11, d25, d1[3] @ encoding: [0xd9,0xff,0xe9,0x66]
|
/external/libxaac/decoder/armv7/ |
D | ixheaacd_sbr_imdct_using_fft.s | 254 VADD.I32 q10, q11, q2 255 VSUB.I32 q1, q11, q2 259 VADD.S32 q11, q7, q15 277 VADD.S32 q3, q4, q11 280 VSUB.S32 q10, q4, q11 287 VSUB.S32 q11, q8, q7 331 VPUSH {q11} 359 VADD.S32 q11, q9, q14 425 VTRN.32 q15, q11 431 VSHL.S32 q11, q11, #1 [all …]
|
D | ixheaacd_imdct_using_fft.s | 250 VADD.I32 q10, q11, q2 251 VSUB.I32 q1, q11, q2 255 VADD.S32 q11, q7, q15 273 VADD.S32 q3, q4, q11 276 VSUB.S32 q10, q4, q11 283 VSUB.S32 q11, q8, q7 327 VPUSH {q11} 355 VADD.S32 q11, q9, q14 420 VTRN.32 q15, q11 426 VSHL.S32 q11, q11, #3 [all …]
|