/external/boringssl/linux-arm/crypto/modes/ |
D | ghashv8-armx32.S | 15 vshr.u64 q10,q11,#63 17 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 18 vshr.u64 q10,q3,#63 20 vand q10,q10,q8 22 vext.8 q10,q10,q10,#8 24 vorr q3,q3,q10 @ H<<<=1 36 veor q10,q0,q2 38 veor q1,q1,q10 39 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 43 veor q0,q1,q10 [all …]
|
D | ghash-armv4.S | 398 vmull.p8 q10, d20, d6 @ J = A3*B 408 veor q10, q10, q0 @ N = I + J 420 vext.8 q10, q10, q10, #13 422 veor q10, q10, q11 424 veor q0, q0, q10 436 vmull.p8 q10, d20, d6 @ J = A3*B 446 veor q10, q10, q1 @ N = I + J 458 vext.8 q10, q10, q10, #13 460 veor q10, q10, q11 462 veor q1, q1, q10 [all …]
|
/external/boringssl/linux-arm/crypto/aes/ |
D | aesv8-armx32.S | 51 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 58 veor q10,q10,q1 61 veor q3,q3,q10 70 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 76 veor q10,q10,q1 79 veor q3,q3,q10 85 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 91 veor q10,q10,q1 93 veor q3,q3,q10 103 vmov.i8 q10,#8 @ borrow q10 [all …]
|
D | bsaes-armv7.S | 1158 vld1.8 {q10,q11}, [r0]! 1162 veor q4, q4, q10 1212 vld1.8 {q10,q11}, [r0]! 1216 veor q4, q4, q10 1235 vld1.8 {q10,q11}, [r0]! 1239 veor q4, q4, q10 1256 vld1.8 {q10,q11}, [r0]! 1260 veor q4, q4, q10 1274 vld1.8 {q10}, [r0]! 1278 veor q4, q4, q10 [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 294 vaddl.u8 q10, d2, d17 @// a0 + a5 (column1,row0) 296 vmlal.u8 q10, d8, d1 @// a0 + a5 + 20a2 (column1,row0) 297 vmlal.u8 q10, d11, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0) 298 vmlsl.u8 q10, d5, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0) 299 vmlsl.u8 q10, d14, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0) 316 …vqrshrun.s16 d2, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r… 333 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2) 334 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2) 335 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2) 336 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2) [all …]
|
/external/llvm/test/MC/ARM/ |
D | neon-mul-accum-encoding.s | 7 vmla.i8 q9, q8, q10 8 vmla.i16 q9, q8, q10 9 vmla.i32 q9, q8, q10 10 vmla.f32 q9, q8, q10 17 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2] 18 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2] 19 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2] 20 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2] 58 vmls.i8 q9, q8, q10 59 vmls.i16 q9, q8, q10 [all …]
|
D | neont2-mul-accum-encoding.s | 9 vmla.i8 q9, q8, q10 10 vmla.i16 q9, q8, q10 11 vmla.i32 q9, q8, q10 12 vmla.f32 q9, q8, q10 19 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29] 20 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29] 21 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29] 22 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d] 62 vmls.i8 q9, q8, q10 63 vmls.i16 q9, q8, q10 [all …]
|
D | neon-absdiff-encoding.s | 57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2] 58 vaba.s8 q9, q8, q10 59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2] 60 vaba.s16 q9, q8, q10 61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2] 62 vaba.s32 q9, q8, q10 63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3] 64 vaba.u8 q9, q8, q10 65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3] 66 vaba.u16 q9, q8, q10 [all …]
|
D | neont2-absdiff-encoding.s | 57 vaba.s8 q9, q8, q10 58 vaba.s16 q9, q8, q10 59 vaba.s32 q9, q8, q10 60 vaba.u8 q9, q8, q10 61 vaba.u16 q9, q8, q10 62 vaba.u32 q9, q8, q10 70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27] 71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27] 72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27] 73 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0x40,0xff,0xf4,0x27] [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 167 vaddl.u8 q10, d4, d6 170 vmla.u16 q9, q10, q14 172 vaddl.u8 q10, d1, d11 174 vmla.u16 q10, q12, q14 178 vmls.u16 q10, q13, q15 183 vst1.32 {q10}, [r9]! 184 vext.16 q12, q9, q10, #2 185 vext.16 q13, q9, q10, #3 187 vext.16 q11, q9, q10, #5 189 vext.16 q12, q9, q10, #1 [all …]
|
D | ih264_inter_pred_luma_bilinear_a9q.s | 139 vaddl.u8 q10, d0, d4 150 vqrshrun.s16 d28, q10, #1 152 vaddl.u8 q10, d10, d14 162 vqrshrun.s16 d30, q10, #1 166 vaddl.u8 q10, d0, d4 174 vqrshrun.s16 d28, q10, #1 180 vaddl.u8 q10, d10, d14 187 vqrshrun.s16 d30, q10, #1 198 vaddl.u8 q10, d0, d4 202 vqrshrun.s16 d28, q10, #1 [all …]
|
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 144 vaddl.u8 q10, d8, d11 @ temp1 = src[2_0] + src[3_0] 148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20 150 vaddl.u8 q10, d6, d15 @ temp = src[1_0] + src[4_0] 154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5 156 vaddl.u8 q10, d7, d16 @ temp = src[1_0] + src[4_0] 158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5 159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1) 169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1) 175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2) 187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2) [all …]
|
D | ih264_iquant_itrans_recon_a9.s | 139 vmul.s16 q10, q10, q13 @x[i]=(scale[i] * dequant[i]) where i = 0..7 207 vadd.s16 q10, q7, q8 @x0 + x3 and x1+x2 combined 211 vrshr.s16 q10, q10, #6 @ 214 vaddw.u8 q10, q10, d30 217 vqmovun.s16 d0, q10 315 vmul.s16 q10, q10, q13 @x[i]=(scale[i] * dequant[i]) where i = 0..7 383 vadd.s16 q10, q7, q8 @x0 + x3 and x1+x2 combined 387 vrshr.s16 q10, q10, #6 @ 390 vaddw.u8 q10, q10, d28 400 vqmovun.s16 d20, q10 @Getting quantized coeffs [all …]
|
D | ih264_inter_pred_filters_luma_vert_a9q.s | 132 vaddl.u8 q10, d1, d11 @ temp4 = src[0_8] + src[5_8] 134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20 142 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5 150 vqrshrun.s16 d31, q10, #5 @ dst[0_8] = CLIP_U8((temp4 +16) >> 5) 156 vaddl.u8 q10, d6, d0 163 vmls.u16 q9, q10, q12 169 vaddl.u8 q10, d8, d2 178 vmls.u16 q7, q10, q12 185 vaddl.u8 q10, d9, d7 @ temp4 = src[0_8] + src[5_8] 221 vaddl.u8 q10, d4, d5 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 187 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1) 242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) 267 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct) 315 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1) 318 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7) 319 vsub.s32 q5,q10,q3 @// a3 = c0 - d0(part of r3,r4) [all …]
|
D | ihevc_itrans_recon_32x32.s | 225 vmull.s16 q10,d10,d0[0] 226 vmlal.s16 q10,d11,d0[2] 263 vmlal.s16 q10,d12,d1[0] 264 vmlal.s16 q10,d13,d1[2] 295 vmlal.s16 q10,d10,d2[0] 296 vmlal.s16 q10,d11,d2[2] 337 vmlal.s16 q10,d12,d3[0] 338 vmlal.s16 q10,d13,d3[2] 371 vmlal.s16 q10,d10,d0[0] 372 vmlal.s16 q10,d11,d4[2] [all …]
|
/external/valgrind/none/tests/arm/ |
D | neon128.c | 360 TESTINSN_imm("vmov.i32 q10", q10, 0x70000); in main() 374 TESTINSN_imm("vmvn.i32 q10", q10, 0x70000); in main() 393 TESTINSN_imm("vbic.i32 q10", q10, 0x70000); in main() 398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24); in main() 403 TESTINSN_un("vmov q10, q15", q10, q15, i32, 24); in main() 408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); in main() 421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main() 434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main() 440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 177 vaddw.u8 q10, q15, d6 182 vqmovun.s16 d6, q10 442 vmull.s16 q10, d2, d0[0] @// y0 * cos4(part of c0 and c1) 497 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 498 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 507 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5) 508 vadd.s32 q9, q10, q9 @// a1 = c1 + d1(part of r1,r6) 510 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0) 522 vqrshrn.s32 d2, q10, #idct_stg1_shift @// r0 = (a0 + b0 + rnd) >> 7(IDCT_STG1_SHIFT) 574 vmull.s16 q10, d2, d0[0] @// y0 * cos4(part of c0 and c1) [all …]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_16_neon.c | 28 uint8x16_t q10, // q3 in loop_filter_neon_16() argument 44 q4 = vabdq_u8(q10, q9); in loop_filter_neon_16() 65 q10 = vdupq_n_u8(0x80); in loop_filter_neon_16() 66 q8 = veorq_u8(q8, q10); in loop_filter_neon_16() 67 q7 = veorq_u8(q7, q10); in loop_filter_neon_16() 68 q6 = veorq_u8(q6, q10); in loop_filter_neon_16() 69 q5 = veorq_u8(q5, q10); in loop_filter_neon_16() 120 *q8r = veorq_u8(vreinterpretq_u8_s8(q12s8), q10); in loop_filter_neon_16() 121 *q7r = veorq_u8(vreinterpretq_u8_s8(q0s8), q10); in loop_filter_neon_16() 122 *q6r = veorq_u8(vreinterpretq_u8_s8(q11s8), q10); in loop_filter_neon_16() [all …]
|
D | idct16x16_1_add_neon.asm | 62 vaddw.u8 q10, q0, d3 ; dest[x] + a1 66 vqmovun.s16 d3, q10 ; clip_pixel 75 vaddw.u8 q10, q0, d7 ; dest[x] + a1 79 vqmovun.s16 d3, q10 ; clip_pixel 98 vaddw.u8 q10, q0, d3 ; dest[x] + a1 102 vqmovun.s16 d3, q10 ; clip_pixel 111 vaddw.u8 q10, q0, d7 ; dest[x] + a1 115 vqmovun.s16 d3, q10 ; clip_pixel 134 vaddw.u8 q10, q0, d3 ; dest[x] + a1 138 vqmovun.s16 d3, q10 ; clip_pixel [all …]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | vp8_loopfilter_neon.c | 26 uint8x16_t q10, // q3 in vp8_loop_filter_neon() argument 42 q4 = vabdq_u8(q10, q9); in vp8_loop_filter_neon() 63 q10 = vdupq_n_u8(0x80); in vp8_loop_filter_neon() 64 q8 = veorq_u8(q8, q10); in vp8_loop_filter_neon() 65 q7 = veorq_u8(q7, q10); in vp8_loop_filter_neon() 66 q6 = veorq_u8(q6, q10); in vp8_loop_filter_neon() 67 q5 = veorq_u8(q5, q10); in vp8_loop_filter_neon() 72 q10 = vdupq_n_u8(3); in vp8_loop_filter_neon() 86 q4u16 = vmovl_u8(vget_low_u8(q10)); in vp8_loop_filter_neon() 105 q2s8 = vqaddq_s8(q1s8, vreinterpretq_s8_u8(q10)); in vp8_loop_filter_neon() [all …]
|
D | idct_dequant_full_2x_neon.c | 24 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; in idct_dequant_full_2x_neon() local 94 q10 = vqaddq_s16(q2, q3); in idct_dequant_full_2x_neon() 106 q4 = vqaddq_s16(q10, q3); in idct_dequant_full_2x_neon() 109 q7 = vqsubq_s16(q10, q3); in idct_dequant_full_2x_neon() 121 q10 = vqdmulhq_n_s16(q2tmp2.val[1], cospi8sqrt2minus1); in idct_dequant_full_2x_neon() 127 q10 = vshrq_n_s16(q10, 1); in idct_dequant_full_2x_neon() 130 q10 = vqaddq_s16(q2tmp2.val[1], q10); in idct_dequant_full_2x_neon() 134 q9 = vqaddq_s16(q9, q10); in idct_dequant_full_2x_neon()
|
/external/libjpeg-turbo/simd/ |
D | jsimd_arm_neon.S | 250 vmul.s16 q10, q10, q2 504 vqrshrn.s16 d18, q10, #2 518 vtrn.16 q10, q11 530 vadd.u8 q10, q10, q0 737 vmul.s16 q10, q10, q2 749 vsub.s16 q2, q10, q14 750 vadd.s16 q14, q10, q14 759 vadd.s16 q10, q2, q4 766 vsub.s16 q10, q10, q14 771 vadd.s16 q5, q6, q10 [all …]
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 101 vshr.u64 q10,q10,#25 108 vand q10,q10,q2 117 vadd.i64 q13,q10,q1 128 vsub.i64 q10,q10,q13 168 vadd.i64 q6,q10,q0 172 vshl.i64 q10,q13,#25 176 vsub.i64 q3,q3,q10 248 veor q10,q7,q9 252 vand q10,q10,q8 258 veor q6,q7,q10 [all …]
|