/external/boringssl/ios-arm/crypto/fipsmodule/ |
D | aesv8-armx32.S | 54 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 61 veor q10,q10,q1 64 veor q3,q3,q10 73 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 79 veor q10,q10,q1 82 veor q3,q3,q10 88 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 94 veor q10,q10,q1 96 veor q3,q3,q10 106 vmov.i8 q10,#8 @ borrow q10 [all …]
|
D | ghashv8-armx32.S | 18 vshr.u64 q10,q11,#63 20 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 21 vshr.u64 q10,q3,#63 23 vand q10,q10,q8 25 vext.8 q10,q10,q10,#8 27 vorr q3,q3,q10 @ H<<<=1 39 veor q10,q0,q2 41 veor q1,q1,q10 42 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 46 veor q0,q1,q10 [all …]
|
D | bsaes-armv7.S | 1173 vld1.8 {q10,q11}, [r0]! 1177 veor q4, q4, q10 1227 vld1.8 {q10,q11}, [r0]! 1231 veor q4, q4, q10 1250 vld1.8 {q10,q11}, [r0]! 1254 veor q4, q4, q10 1271 vld1.8 {q10,q11}, [r0]! 1275 veor q4, q4, q10 1289 vld1.8 {q10}, [r0]! 1293 veor q4, q4, q10 [all …]
|
D | ghash-armv4.S | 444 vmull.p8 q10, d20, d6 @ J = A3*B 454 veor q10, q10, q0 @ N = I + J 466 vext.8 q10, q10, q10, #13 468 veor q10, q10, q11 470 veor q0, q0, q10 482 vmull.p8 q10, d20, d6 @ J = A3*B 492 veor q10, q10, q1 @ N = I + J 504 vext.8 q10, q10, q10, #13 506 veor q10, q10, q11 508 veor q1, q1, q10 [all …]
|
/external/boringssl/linux-arm/crypto/fipsmodule/ |
D | ghashv8-armx32.S | 17 vshr.u64 q10,q11,#63 19 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 20 vshr.u64 q10,q3,#63 22 vand q10,q10,q8 24 vext.8 q10,q10,q10,#8 26 vorr q3,q3,q10 @ H<<<=1 38 veor q10,q0,q2 40 veor q1,q1,q10 41 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 45 veor q0,q1,q10 [all …]
|
D | bsaes-armv7.S | 1166 vld1.8 {q10,q11}, [r0]! 1170 veor q4, q4, q10 1220 vld1.8 {q10,q11}, [r0]! 1224 veor q4, q4, q10 1243 vld1.8 {q10,q11}, [r0]! 1247 veor q4, q4, q10 1264 vld1.8 {q10,q11}, [r0]! 1268 veor q4, q4, q10 1282 vld1.8 {q10}, [r0]! 1286 veor q4, q4, q10 [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 294 vaddl.u8 q10, d2, d17 @// a0 + a5 (column1,row0) 296 vmlal.u8 q10, d8, d1 @// a0 + a5 + 20a2 (column1,row0) 297 vmlal.u8 q10, d11, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0) 298 vmlsl.u8 q10, d5, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0) 299 vmlsl.u8 q10, d14, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0) 316 …vqrshrun.s16 d2, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r… 333 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2) 334 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2) 335 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2) 336 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2) [all …]
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
D | neont2-mul-accum-encoding.s | 9 vmla.i8 q9, q8, q10 10 vmla.i16 q9, q8, q10 11 vmla.i32 q9, q8, q10 12 vmla.f32 q9, q8, q10 18 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29] 19 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29] 20 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29] 21 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d] 50 vmls.i8 q9, q8, q10 51 vmls.i16 q9, q8, q10 [all …]
|
D | neon-mul-accum-encoding.s | 11 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2] 12 vmla.i8 q9, q8, q10 13 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2] 14 vmla.i16 q9, q8, q10 15 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2] 16 vmla.i32 q9, q8, q10 17 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2] 18 vmla.f32 q9, q8, q10 43 @ CHECK: vmls.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf3] 44 vmls.i8 q9, q8, q10 [all …]
|
D | neon-mul-encoding.s | 7 vmla.i8 q9, q8, q10 8 vmla.i16 q9, q8, q10 9 vmla.i32 q9, q8, q10 10 vmla.f32 q9, q8, q10 16 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2] 17 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2] 18 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2] 19 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2] 48 vmls.i8 q9, q8, q10 49 vmls.i16 q9, q8, q10 [all …]
|
D | neon-absdiff-encoding.s | 57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2] 58 vaba.s8 q9, q8, q10 59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2] 60 vaba.s16 q9, q8, q10 61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2] 62 vaba.s32 q9, q8, q10 63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3] 64 vaba.u8 q9, q8, q10 65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3] 66 vaba.u16 q9, q8, q10 [all …]
|
D | neont2-absdiff-encoding.s | 57 vaba.s8 q9, q8, q10 58 vaba.s16 q9, q8, q10 59 vaba.s32 q9, q8, q10 60 vaba.u8 q9, q8, q10 61 vaba.u16 q9, q8, q10 62 vaba.u32 q9, q8, q10 70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27] 71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27] 72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27] 73 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0x40,0xff,0xf4,0x27] [all …]
|
/external/llvm/test/MC/ARM/ |
D | neon-mul-accum-encoding.s | 7 vmla.i8 q9, q8, q10 8 vmla.i16 q9, q8, q10 9 vmla.i32 q9, q8, q10 10 vmla.f32 q9, q8, q10 17 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2] 18 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2] 19 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2] 20 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2] 58 vmls.i8 q9, q8, q10 59 vmls.i16 q9, q8, q10 [all …]
|
D | neont2-mul-accum-encoding.s | 9 vmla.i8 q9, q8, q10 10 vmla.i16 q9, q8, q10 11 vmla.i32 q9, q8, q10 12 vmla.f32 q9, q8, q10 19 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29] 20 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29] 21 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29] 22 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d] 62 vmls.i8 q9, q8, q10 63 vmls.i16 q9, q8, q10 [all …]
|
D | neon-absdiff-encoding.s | 57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2] 58 vaba.s8 q9, q8, q10 59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2] 60 vaba.s16 q9, q8, q10 61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2] 62 vaba.s32 q9, q8, q10 63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3] 64 vaba.u8 q9, q8, q10 65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3] 66 vaba.u16 q9, q8, q10 [all …]
|
/external/swiftshader/third_party/subzero/tests_lit/assembler/arm32/ |
D | mul-vec.ll | 7 ; RUN: -reg-use q10,q11 \ 13 ; RUN: -reg-use q10,q11 \ 18 ; RUN: -reg-use q10,q11 \ 24 ; RUN: -reg-use q10,q11 \ 35 ; ASM: vmul.f32 q10, q10, q11 50 ; ASM: vmul.i32 q10, q10, q11 65 ; ASM: vmul.i16 q10, q10, q11 80 ; ASM: vmul.i8 q10, q10, q11
|
D | sub-vec.ll | 7 ; RUN: -reg-use q10,q11 \ 13 ; RUN: -reg-use q10,q11 \ 18 ; RUN: -reg-use q10,q11 \ 24 ; RUN: -reg-use q10,q11 \ 35 ; ASM: vsub.f32 q10, q10, q11 50 ; ASM: vsub.i32 q10, q10, q11 65 ; ASM: vsub.i16 q10, q10, q11 80 ; ASM: vsub.i8 q10, q10, q11
|
D | add-vec.ll | 7 ; RUN: -reg-use q10,q11 \ 13 ; RUN: -reg-use q10,q11 \ 18 ; RUN: -reg-use q10,q11 \ 24 ; RUN: -reg-use q10,q11 \ 35 ; ASM: vadd.f32 q10, q10, q11 50 ; ASM: vadd.i32 q10, q10, q11 65 ; ASM: vadd.i16 q10, q10, q11 80 ; ASM: vadd.i8 q10, q10, q11
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 167 vaddl.u8 q10, d4, d6 170 vmla.u16 q9, q10, q14 172 vaddl.u8 q10, d1, d11 174 vmla.u16 q10, q12, q14 178 vmls.u16 q10, q13, q15 183 vst1.32 {q10}, [r9]! 184 vext.16 q12, q9, q10, #2 185 vext.16 q13, q9, q10, #3 187 vext.16 q11, q9, q10, #5 189 vext.16 q12, q9, q10, #1 [all …]
|
D | ih264_inter_pred_luma_bilinear_a9q.s | 139 vaddl.u8 q10, d0, d4 150 vqrshrun.s16 d28, q10, #1 152 vaddl.u8 q10, d10, d14 162 vqrshrun.s16 d30, q10, #1 166 vaddl.u8 q10, d0, d4 174 vqrshrun.s16 d28, q10, #1 180 vaddl.u8 q10, d10, d14 187 vqrshrun.s16 d30, q10, #1 198 vaddl.u8 q10, d0, d4 202 vqrshrun.s16 d28, q10, #1 [all …]
|
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 144 vaddl.u8 q10, d8, d11 @ temp1 = src[2_0] + src[3_0] 148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20 150 vaddl.u8 q10, d6, d15 @ temp = src[1_0] + src[4_0] 154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5 156 vaddl.u8 q10, d7, d16 @ temp = src[1_0] + src[4_0] 158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5 159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1) 169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1) 175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2) 187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2) [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 193 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1) 248 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 249 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 258 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 259 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 261 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) 273 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct) 321 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1) 324 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7) 325 vsub.s32 q5,q10,q3 @// a3 = c0 - d0(part of r3,r4) [all …]
|
D | ihevc_itrans_recon_32x32.s | 231 vmull.s16 q10,d10,d0[0] 232 vmlal.s16 q10,d11,d0[2] 269 vmlal.s16 q10,d12,d1[0] 270 vmlal.s16 q10,d13,d1[2] 301 vmlal.s16 q10,d10,d2[0] 302 vmlal.s16 q10,d11,d2[2] 343 vmlal.s16 q10,d12,d3[0] 344 vmlal.s16 q10,d13,d3[2] 377 vmlal.s16 q10,d10,d0[0] 378 vmlal.s16 q10,d11,d4[2] [all …]
|
/external/valgrind/none/tests/arm/ |
D | neon128.c | 360 TESTINSN_imm("vmov.i32 q10", q10, 0x70000); in main() 374 TESTINSN_imm("vmvn.i32 q10", q10, 0x70000); in main() 393 TESTINSN_imm("vbic.i32 q10", q10, 0x70000); in main() 398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24); in main() 403 TESTINSN_un("vmov q10, q15", q10, q15, i32, 24); in main() 408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); in main() 421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main() 434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main() 440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() [all …]
|