/third_party/mindspore/mindspore/ccsrc/backend/kernel_compiler/cpu/nnacl/assembly/arm32/ |
D | TiledC4MatmulFp32.S | 47 vld1.32 {q6, q7}, [r2]! 59 vmla.f32 q8, q6, d1[0] 60 vmla.f32 q9, q6, d3[0] 61 vmla.f32 q10, q6, d5[0] 62 vmla.f32 q11, q6, d7[0] 82 vmla.f32 q12, q6, d1[0] 83 vmla.f32 q13, q6, d3[0] 84 vmla.f32 q14, q6, d5[0] 85 vmla.f32 q15, q6, d7[0] 109 vld1.32 {q6, q7}, [r2]! [all …]
|
D | IndirectGemmInt8_2x4.S | 75 vmull.s8 q6, d0, d4 77 vmlal.s8 q6, d1, d5 79 vpaddl.s16 q8, q6 83 vmull.s8 q6, d0, d8 85 vmlal.s8 q6, d1, d9 94 vpadal.s16 q10, q6 96 vmull.s8 q6, d2, d4 98 vmlal.s8 q6, d3, d5 101 vpadal.s16 q12, q6 103 vmull.s8 q6, d2, d8 [all …]
|
D | ConvDwInt8Center.S | 68 vmov q6, q8 91 vmlal.s16 q6, d4, d0 105 vshl.s32 q6, q6, q14 110 vqrdmulh.s32 q6, q6, q12 126 vand q2, q6, q0 128 vqadd.s32 q6, q6, q2 129 vrshl.s32 q6, q6, q0 138 vadd.i32 q6, q6, q10 145 vmax.s32 q6, q6, q0 152 vmin.s32 q6, q6, q0 [all …]
|
D | MatmulWinogradFp32.S | 75 veor q6, q6, q6 85 vmla.f32 q6, q1, d8[0] 91 vst1.32 {q5, q6}, [r11]! 108 veor q6, q6, q6 115 vmla.f32 q6, q1, d8[0] 119 vst1.32 {q5, q6}, [r11]!
|
D | MatmulFp32Opt12x4.S | 70 vmul.f32 q6, q3, d1[0] 92 vmla.f32 q6, q3, d1[0] 115 vadd.f32 q6, q6, q0 139 vmin.f32 q6, q6, q2 154 vmax.f32 q6, q6, q3 179 vmul.f32 q6, q3, d1[0] 196 vmla.f32 q6, q3, d1[0] 214 vadd.f32 q6, q6, q0 234 vmin.f32 q6, q6, q2 245 vmax.f32 q6, q6, q3 [all …]
|
D | PreSum4x16Int8Pert.S | 58 vpaddl.s8 q6, q2 63 vpaddl.s16 q2, q6 68 vpaddl.s32 q6, q2 73 vqmovn.s64 d2, q6
|
D | ConvDwFp32Row.S | 62 vld1.32 {q6, q7}, [r8]! 64 vmla.f32 q10, q2, q6 82 vld1.32 {q6, q7}, [r8]! 84 vmla.f32 q10, q2, q6
|
D | PreSum4x16Int8Peroc.S | 65 vpaddl.s8 q6, q2 70 vpaddl.s16 q2, q6 75 vpaddl.s32 q6, q2 80 vqmovn.s64 d2, q6
|
D | ConvDw3x3Int8BorderPixel.S | 107 vand q6, q4, q12 108 vshr.s32 q6, q6, #31 109 vqadd.s32 q4, q4, q6
|
/third_party/openssl/crypto/aes/asm/arm32/ |
D | bsaes-armv7.S | 1108 vldmia sp, {q6} 1110 veor q7, q7, q6 @ fix up round 0 key 1124 vldmia r4, {q6} 1126 veor q7, q7, q6 @ fix up round 0 key 1150 vld1.8 {q6-q7}, [r0] 1161 veor q6, q6, q9 1169 vst1.8 {q6}, [r1]! 1205 vld1.8 {q6}, [r0]! 1215 veor q6, q6, q9 1223 vst1.8 {q6}, [r1]! [all …]
|
/third_party/openh264/codec/processing/src/arm/ |
D | vaa_calc_neon.S | 364 SAD_SSD_BGD_16_RESET_16x16 \arg0, \arg1, \arg2, q6 365 SAD_SSD_BGD_16 \arg0, \arg1, \arg2, q6 366 SAD_SSD_BGD_16 \arg0, \arg1, \arg2, q6 367 SAD_SSD_BGD_16 \arg0, \arg1, \arg2, q6 368 SAD_SSD_BGD_16 \arg0, \arg1, \arg2, q6 369 SAD_SSD_BGD_16 \arg0, \arg1, \arg2, q6 370 SAD_SSD_BGD_16 \arg0, \arg1, \arg2, q6 371 SAD_SSD_BGD_16 \arg0, \arg1, \arg2, q6 373 SAD_SSD_BGD_CALC_8x16 d26, q14, q6 544 SAD_VAR_16_RESET_16x16 \arg0, \arg1, \arg2, q6 [all …]
|
/third_party/ffmpeg/libavcodec/arm/ |
D | hevcdsp_deblock_neon.S | 74 vadd.i16 q6, q14, q12 76 vsub.i16 q6, q13 78 vabd.s16 q6, q6, q13 83 vmov q5, q6 86 vtrn.16 q6, q5 90 vshl.u64 q6, #32 93 vshr.u64 q6, #32 96 vorr q6, q5 99 vadd.i16 q5, q7, q6 130 vcgt.s16 q6, q1, q7 [all …]
|
D | vp9lpf_neon.S | 62 vabd.u8 q6, q13, q14 @ abs(q1 - q2) 66 vmax.u8 q4, q6, q7 90 vsubl.u8 q6, d21, d27 @ p1 - q1 93 vqmovn.s16 d11, q6 @ av_clip_int8p(p1 - q1) 97 vsubl.u8 q6, d24, d22 @ q0 - p0 103 vmul.s16 q6, q6, q0 @ 3 * (q0 - p0) 106 vaddw.s8 q6, q6, d10 @ 3 * (q0 - p0) [+ av_clip_int8(p1 - q1)] 109 vqmovn.s16 d12, q6 113 vqadd.s8 q5, q6, q5 @ FFMIN(f + 4, 127) 114 vqadd.s8 q0, q6, q0 @ FFMIN(f + 3, 127) [all …]
|
D | h264dsp_neon.S | 44 vabd.u8 q6, q8, q0 @ abs(p0 - q0) 50 vclt.u8 q6, q6, q11 @ < alpha 55 vbic q6, q6, q7 57 vand q6, q6, q14 60 vand q6, q6, q15 62 vand q4, q4, q6 63 vand q5, q5, q6 64 vand q12, q12, q6 66 vsub.i8 q6, q12, q4 69 vsub.i8 q6, q6, q5 [all …]
|
D | simple_idct_neon.S | 57 vmull.s16 q6, d4, w7 /* q6 = W7 * col[1] */ 63 vmlsl.s16 q6, d8, w5 /* q6 -= W5 * col[3] */ 109 vmlal.s16 q6, d5, w3 /* q6 += W3 * col[5] */ 114 vmlsl.s16 q6, d9, w1 125 vadd.i32 q8, q14, q6 129 vsub.i32 q14, q14, q6 188 vmlal.s16 q6, d5, w3 /* q6 += W3 * col[5] */ 213 vmlsl.s16 q6, d9, w1 218 vaddhn.i32 d5, q14, q6 222 vsubhn.i32 d6, q14, q6
|
D | hevcdsp_sao_neon.S | 129 vshll.u8 q6, d9, #1 // lowIndex 130 vadd.u16 q7, q6, q2 132 vadd.u16 q10, q6 // combine lowIndex and highIndex, offset_val 162 vshll.u8 q6, d9, #1 // lowIndex 163 vadd.u16 q7, q6, q2 165 vadd.u16 q10, q6 // combine lowIndex and highIndex, offset_val
|
D | vp3dsp_neon.S | 131 vmull.s16 q6, d16, xC4S4 // ((ip[0] - ip[4]) * C4) << 16 137 vshrn.s32 d8, q6, #16 147 vmull.s16 q6, d18, xC7S1 // (ip[1] * C7) << 16 153 vshrn.s32 d8, q6, #16 // ip[1] * C7 163 vmull.s16 q6, d26, xC5S3 // (ip[5] * C5) << 16 169 vshrn.s32 d8, q6, #16 180 vmull.s16 q6, d28, xC6S2 // (ip[6] * C6) << 16 186 vshrn.s32 d8, q6, #16 // ip[6] * C6 201 vmull.s16 q6, d20, xC6S2 // (ip[2] * C6) << 16 207 vshrn.s32 d8, q6, #16 // ip[2] * C6 [all …]
|
/third_party/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 111 JLONG q1, q2, q3, q4, q5, q6, q7; \ 126 q6 = MULTIPLY(q5, FIX_1_175875602_MINUS_1_961570560) + \ 132 q4 = q6; \ 134 q6 += MULTIPLY(row5, -FIX_2_562915447) + \ 141 q1 = q1 + q6; \ 149 q1 = q1 - q6; \ 152 q1 = q1 - q6; \ 153 q6 = MULTIPLY(row2, FIX_0_541196100_PLUS_0_765366865) + \ 161 q2 = q1 + q6; \ 162 q1 = q1 - q6; \ [all …]
|
/third_party/flutter/skia/third_party/externals/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 111 JLONG q1, q2, q3, q4, q5, q6, q7; \ 126 q6 = MULTIPLY(q5, FIX_1_175875602_MINUS_1_961570560) + \ 132 q4 = q6; \ 134 q6 += MULTIPLY(row5, -FIX_2_562915447) + \ 141 q1 = q1 + q6; \ 149 q1 = q1 - q6; \ 152 q1 = q1 - q6; \ 153 q6 = MULTIPLY(row2, FIX_0_541196100_PLUS_0_765366865) + \ 161 q2 = q1 + q6; \ 162 q1 = q1 - q6; \ [all …]
|
/third_party/openssl/crypto/poly1305/asm/arm32/ |
D | poly1305-armv4.S | 432 vmull.u32 q6,d1,d0[1] 438 vmlal.u32 q6,d0,d1[1] 444 vmlal.u32 q6,d7,d4[1] 451 vmlal.u32 q6,d5,d6[1] 457 vmlal.u32 q6,d3,d8[1] 795 vmull.u32 q6,d23,d0[1] 805 vmlal.u32 q6,d21,d1[1] 811 vmlal.u32 q6,d29,d4[1] 817 vmlal.u32 q6,d27,d6[1] 823 vmlal.u32 q6,d25,d8[1] [all …]
|
/third_party/boost/libs/smart_ptr/test/ |
D | wp_unordered_test.cpp | 52 boost::weak_ptr<int> q6( p6 ); in main() local 54 set.insert( q6 ); in main() 63 BOOST_TEST_EQ( set.count( q6 ), 1 ); in main() 81 BOOST_TEST_EQ( set.count( q6 ), 1 ); in main()
|
/third_party/mindspore/mindspore/ccsrc/backend/kernel_compiler/cpu/nnacl/assembly/arm82_aarch32_fp16/ |
D | Matmul12x8Fp16.S | 200 veor q6, q6, q6 215 vmla.f16 q6, q2, d0[2] 235 vadd.f16 q6, q6, q0 258 vadd.f16 q6, q6, q2 273 vmax.f16 q6, q6, q3 297 vst1.16 {q6}, [dst] 355 STORE_12x8 q6 369 STORE_C8 q6, #3
|
/third_party/pixman/pixman/ |
D | pixman-arm-neon-asm.S | 843 vmull.u8 q6, d24, d10 850 vrshr.u16 q10, q6, #8 854 vraddhn.u16 d2, q6, q10 890 vmull.u8 q6, d24, d10 913 vrshr.u16 q10, q6, #8 917 vraddhn.u16 d2, q6, q10 1370 vmull.u8 q6, d24, d8 1374 vrshr.u16 q10, q6, #8 1378 vraddhn.u16 d0, q6, q10 1395 vrshr.u16 q6, q10, #8 [all …]
|
/third_party/openssl/crypto/bn/asm/arm32/ |
D | armv4-mont.S | 628 vmlal.u32 q6,d29,d4[0] 636 vst1.64 {q6},[r7,:128]! 638 vld1.64 {q6},[r6,:128] 669 vmlal.u32 q6,d28,d3[0] 678 vmlal.u32 q6,d29,d7[0] 711 vmlal.u32 q6,d28,d2[0] 720 vmlal.u32 q6,d29,d6[0] 762 vmlal.u32 q6,d29,d5[0] 771 vmlal.u32 q6,d28,d0[1]
|
/third_party/skia/third_party/externals/swiftshader/third_party/subzero/src/ |
D | IceRegistersARM32.def | 61 X(Reg_s24, 24, "s24", 0, 0, 1, 0, 0, 0, 0, 0, 1, 0, 0, REGLIST3(RegARM32, s24, d12, q6)) \ 62 X(Reg_s25, 25, "s25", 0, 0, 1, 0, 0, 0, 0, 0, 1, 0, 0, REGLIST3(RegARM32, s25, d12, q6)) \ 63 X(Reg_s26, 26, "s26", 0, 0, 1, 0, 0, 0, 0, 0, 1, 0, 0, REGLIST3(RegARM32, s26, d13, q6)) \ 64 X(Reg_s27, 27, "s27", 0, 0, 1, 0, 0, 0, 0, 0, 1, 0, 0, REGLIST3(RegARM32, s27, d13, q6)) \ 84 X(Reg_d12, 12, "d12", 0, 0, 1, 0, 0, 0, 0, 0, 0, 1, 0, REGLIST4(RegARM32, d12, q6, s24, s25)) \ 85 X(Reg_d13, 13, "d13", 0, 0, 1, 0, 0, 0, 0, 0, 0, 1, 0, REGLIST4(RegARM32, d13, q6, s26, s27)) \ 113 …X(Reg_q6, 6, "q6", 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 1, REGLIST7(RegARM32, q6, d12, d13, s24, s25, s26…
|