/external/llvm-project/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 169 vaddl.u8 q11, d2, d8 176 vmls.u16 q9, q11, q15 177 vaddl.u8 q11, d12, d17 180 vmla.u16 q11, q12, q14 181 vmls.u16 q11, q13, q15 186 vst1.32 {q11}, [r9] 187 vext.16 q11, q9, q10, #5 197 vaddl.s16 q11, d19, d23 198 vmlal.s16 q11, d1, d28 199 vmlsl.s16 q11, d25, d30 [all …]
|
D | ih264_inter_pred_luma_bilinear_a9q.s | 141 vaddl.u8 q11, d1, d5 151 vqrshrun.s16 d29, q11, #1 156 vaddl.u8 q11, d11, d15 164 vqrshrun.s16 d31, q11, #1 170 vaddl.u8 q11, d1, d5 176 vqrshrun.s16 d29, q11, #1 184 vaddl.u8 q11, d11, d15 190 vqrshrun.s16 d31, q11, #1 200 vaddl.u8 q11, d1, d5 204 vqrshrun.s16 d29, q11, #1 [all …]
|
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 146 vaddl.u8 q11, d5, d14 @ temp = src[1_0] + src[4_0] 149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5 151 vaddl.u8 q11, d9, d12 @ temp3 = src[2_0] + src[3_0] 153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20 155 vaddl.u8 q11, d10, d13 @ temp3 = src[2_0] + src[3_0] 157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20 163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1) 168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1) 174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1) 180 vqmovun.s16 d22, q11 [all …]
|
D | ih264_iquant_itrans_recon_a9.s | 142 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15 206 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined 212 vrshr.s16 q11, q11, #6 215 vaddw.u8 q11, q11, d31 218 vqmovun.s16 d1, q11 318 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15 381 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined 388 vrshr.s16 q11, q11, #6 391 vaddw.u8 q11, q11, d29 401 vqmovun.s16 d22, q11 [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 302 vaddl.u8 q11, d3, d18 @// a0 + a5 (column2,row0) 303 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 (column2,row0) 304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0) 305 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0) 306 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0) 318 …vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r… 369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5) 376 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5) 377 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5) 378 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5) [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 214 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1) 248 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 249 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 258 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 264 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 265 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5) 276 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct) 326 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 332 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 333 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5) [all …]
|
D | ihevc_itrans_recon_32x32.s | 235 vmull.s16 q11,d10,d0[0] 236 vmlal.s16 q11,d11,d1[2] 271 vmlal.s16 q11,d12,d3[0] 272 vmlal.s16 q11,d13,d4[2] 305 vmlal.s16 q11,d10,d6[0] 306 vmlal.s16 q11,d11,d7[2] 345 vmlsl.s16 q11,d12,d7[0] 346 vmlsl.s16 q11,d13,d5[2] 381 vmlsl.s16 q11,d10,d0[0] 382 vmlsl.s16 q11,d11,d2[2] [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 182 vaddw.u8 q11, q15, d7 186 vqmovun.s16 d7, q11 469 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1) 503 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 504 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 513 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5) 519 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2) 520 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5) 531 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT) 585 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5) [all …]
|
/external/rust/crates/ring/pregenerated/ |
D | ghash-armv4-ios32.S | 112 vmull.p8 q11, d26, d22 @ G = A*B2 117 veor q9, q9, q11 @ M = G + H 124 vmull.p8 q11, d26, d22 @ K = A*B4 136 vext.8 q11, q11, q11, #12 139 veor q10, q10, q11 150 vmull.p8 q11, d28, d22 @ G = A*B2 155 veor q9, q9, q11 @ M = G + H 162 vmull.p8 q11, d28, d22 @ K = A*B4 174 vext.8 q11, q11, q11, #12 177 veor q10, q10, q11 [all …]
|
D | ghash-armv4-linux32.S | 107 vmull.p8 q11, d26, d22 @ G = A*B2 112 veor q9, q9, q11 @ M = G + H 119 vmull.p8 q11, d26, d22 @ K = A*B4 131 vext.8 q11, q11, q11, #12 134 veor q10, q10, q11 145 vmull.p8 q11, d28, d22 @ G = A*B2 150 veor q9, q9, q11 @ M = G + H 157 vmull.p8 q11, d28, d22 @ K = A*B4 169 vext.8 q11, q11, q11, #12 172 veor q10, q10, q11 [all …]
|
D | ghashv8-armx-ios32.S | 27 vmov.i8 q11,#0xe1 28 vshl.i64 q11,q11,#57 @ 0xc2.0 30 vshr.u64 q10,q11,#63 32 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 54 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 61 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 81 vmov.i8 q11,#0xe1 83 vshl.u64 q11,q11,#57 98 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction 105 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 [all …]
|
D | ghashv8-armx-linux32.S | 26 vmov.i8 q11,#0xe1 27 vshl.i64 q11,q11,#57 @ 0xc2.0 29 vshr.u64 q10,q11,#63 31 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 53 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 60 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 78 vmov.i8 q11,#0xe1 80 vshl.u64 q11,q11,#57 95 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction 102 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 [all …]
|
/external/boringssl/ios-arm/crypto/fipsmodule/ |
D | ghash-armv4.S | 115 vmull.p8 q11, d26, d22 @ G = A*B2 120 veor q9, q9, q11 @ M = G + H 127 vmull.p8 q11, d26, d22 @ K = A*B4 139 vext.8 q11, q11, q11, #12 142 veor q10, q10, q11 153 vmull.p8 q11, d28, d22 @ G = A*B2 158 veor q9, q9, q11 @ M = G + H 165 vmull.p8 q11, d28, d22 @ K = A*B4 177 vext.8 q11, q11, q11, #12 180 veor q10, q10, q11 [all …]
|
D | ghashv8-armx32.S | 30 vmov.i8 q11,#0xe1 31 vshl.i64 q11,q11,#57 @ 0xc2.0 33 vshr.u64 q10,q11,#63 35 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 57 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 64 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 84 vmov.i8 q11,#0xe1 86 vshl.u64 q11,q11,#57 101 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction 108 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 [all …]
|
/external/rust/crates/quiche/deps/boringssl/linux-arm/crypto/fipsmodule/ |
D | ghash-armv4.S | 110 vmull.p8 q11, d26, d22 @ G = A*B2 115 veor q9, q9, q11 @ M = G + H 122 vmull.p8 q11, d26, d22 @ K = A*B4 134 vext.8 q11, q11, q11, #12 137 veor q10, q10, q11 148 vmull.p8 q11, d28, d22 @ G = A*B2 153 veor q9, q9, q11 @ M = G + H 160 vmull.p8 q11, d28, d22 @ K = A*B4 172 vext.8 q11, q11, q11, #12 175 veor q10, q10, q11 [all …]
|
/external/boringssl/linux-arm/crypto/fipsmodule/ |
D | ghash-armv4.S | 110 vmull.p8 q11, d26, d22 @ G = A*B2 115 veor q9, q9, q11 @ M = G + H 122 vmull.p8 q11, d26, d22 @ K = A*B4 134 vext.8 q11, q11, q11, #12 137 veor q10, q10, q11 148 vmull.p8 q11, d28, d22 @ G = A*B2 153 veor q9, q9, q11 @ M = G + H 160 vmull.p8 q11, d28, d22 @ K = A*B4 172 vext.8 q11, q11, q11, #12 175 veor q10, q10, q11 [all …]
|
D | ghashv8-armx32.S | 29 vmov.i8 q11,#0xe1 30 vshl.i64 q11,q11,#57 @ 0xc2.0 32 vshr.u64 q10,q11,#63 34 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 56 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 63 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 81 vmov.i8 q11,#0xe1 83 vshl.u64 q11,q11,#57 98 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction 105 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 [all …]
|
/external/openscreen/third_party/boringssl/ios-arm/crypto/fipsmodule/ |
D | ghash-armv4.S | 115 vmull.p8 q11, d26, d22 @ G = A*B2 120 veor q9, q9, q11 @ M = G + H 127 vmull.p8 q11, d26, d22 @ K = A*B4 139 vext.8 q11, q11, q11, #12 142 veor q10, q10, q11 153 vmull.p8 q11, d28, d22 @ G = A*B2 158 veor q9, q9, q11 @ M = G + H 165 vmull.p8 q11, d28, d22 @ K = A*B4 177 vext.8 q11, q11, q11, #12 180 veor q10, q10, q11 [all …]
|
D | ghashv8-armx32.S | 30 vmov.i8 q11,#0xe1 31 vshl.i64 q11,q11,#57 @ 0xc2.0 33 vshr.u64 q10,q11,#63 35 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 57 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 64 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 84 vmov.i8 q11,#0xe1 86 vshl.u64 q11,q11,#57 101 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction 108 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 [all …]
|
/external/rust/crates/quiche/deps/boringssl/ios-arm/crypto/fipsmodule/ |
D | ghash-armv4.S | 115 vmull.p8 q11, d26, d22 @ G = A*B2 120 veor q9, q9, q11 @ M = G + H 127 vmull.p8 q11, d26, d22 @ K = A*B4 139 vext.8 q11, q11, q11, #12 142 veor q10, q10, q11 153 vmull.p8 q11, d28, d22 @ G = A*B2 158 veor q9, q9, q11 @ M = G + H 165 vmull.p8 q11, d28, d22 @ K = A*B4 177 vext.8 q11, q11, q11, #12 180 veor q10, q10, q11 [all …]
|
D | ghashv8-armx32.S | 29 vmov.i8 q11,#0xe1 30 vshl.i64 q11,q11,#57 @ 0xc2.0 32 vshr.u64 q10,q11,#63 34 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 56 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 63 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 82 vmov.i8 q11,#0xe1 84 vshl.u64 q11,q11,#57 99 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction 106 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 [all …]
|
/external/openscreen/third_party/boringssl/linux-arm/crypto/fipsmodule/ |
D | ghash-armv4.S | 110 vmull.p8 q11, d26, d22 @ G = A*B2 115 veor q9, q9, q11 @ M = G + H 122 vmull.p8 q11, d26, d22 @ K = A*B4 134 vext.8 q11, q11, q11, #12 137 veor q10, q10, q11 148 vmull.p8 q11, d28, d22 @ G = A*B2 153 veor q9, q9, q11 @ M = G + H 160 vmull.p8 q11, d28, d22 @ K = A*B4 172 vext.8 q11, q11, q11, #12 175 veor q10, q10, q11 [all …]
|
D | ghashv8-armx32.S | 29 vmov.i8 q11,#0xe1 30 vshl.i64 q11,q11,#57 @ 0xc2.0 32 vshr.u64 q10,q11,#63 34 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 56 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 63 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 81 vmov.i8 q11,#0xe1 83 vshl.u64 q11,q11,#57 98 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction 105 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 [all …]
|