/third_party/mindspore/mindspore/ccsrc/backend/kernel_compiler/cpu/nnacl/assembly/arm32/ |
D | IndirectGemmInt16to32_8x4.S | 60 vmull.s16 q8, d8, d0[0] 61 vmull.s16 q9, d8, d2[0] 64 vmlal.s16 q8, d9, d0[1] 65 vmlal.s16 q9, d9, d2[1] 68 vmlal.s16 q8, d10, d0[2] 69 vmlal.s16 q9, d10, d2[2] 70 vmlal.s16 q8, d11, d0[3] 71 vmlal.s16 q9, d11, d2[3] 74 vmull.s16 q10, d8, d4[0] 75 vmull.s16 q11, d8, d6[0] [all …]
|
/third_party/openh264/codec/encoder/core/arm/ |
D | reconstruct_neon.S | 66 vadd.s16 \arg4, \arg0, \arg3 //int16 s[0] = data[i] + data[i3]; 67 vsub.s16 \arg7, \arg0, \arg3 //int16 s[3] = data[i] - data[i3]; 68 vadd.s16 \arg5, \arg1, \arg2 //int16 s[1] = data[i1] + data[i2]; 69 vsub.s16 \arg6, \arg1, \arg2 //int16 s[2] = data[i1] - data[i2]; 71 vadd.s16 \arg0, \arg4, \arg5 //int16 dct[i ] = s[0] + s[1]; 72 vsub.s16 \arg2, \arg4, \arg5 //int16 dct[i2] = s[0] - s[1]; 73 vshl.s16 \arg1, \arg7, #1 74 vshl.s16 \arg3, \arg6, #1 75 vadd.s16 \arg1, \arg1, \arg6 //int16 dct[i1] = (s[3] << 1) + s[2]; 76 vsub.s16 \arg3, \arg7, \arg3 //int16 dct[i3] = s[3] - (s[2] << 1); [all …]
|
D | pixel_neon.S | 56 vadd.s16 q0, q8, q9 59 vsub.s16 q1, q8, q9 64 vadd.s16 q2, q12, q13 65 vsub.s16 q3, q12, q13 67 vadd.s16 q8, q10, q11 68 vsub.s16 q9, q10, q11 70 vadd.s16 q10, q14, q15 71 vsub.s16 q11, q14, q15 73 vadd.s16 q12, q0, q2 74 vsub.s16 q14, q0, q2 [all …]
|
D | intra_pred_neon.S | 132 vmul.s16 q1, q0, q1 //q1 = q1*{(8,7,6,5,4,3,2,1) * 5} 133 vmul.s16 q2, q0, q2 //q2 = q2*{(8,7,6,5,4,3,2,1) * 5} 136 vpadd.s16 d0, d2, d3 137 vpadd.s16 d1, d4, d5 138 vpaddl.s16 q0, q0 143 vdup.s16 q1, d0[0] 144 vdup.s16 q2, d1[0] 156 vmla.s16 q3, q0, q1 157 vmla.s16 q3, q2, d0[0] 160 vshl.s16 q8, q1, #3 [all …]
|
/third_party/ffmpeg/libavcodec/arm/ |
D | vp3dsp_neon.S | 41 vrshr.s16 q0, q0, #3 45 vabs.s16 q1, q0 46 vshr.s16 q0, q0, #15 55 vqmovun.s16 d0, q2 56 vqmovun.s16 d1, q3 121 vadd.s16 q1, q8, q12 122 vsub.s16 q8, q8, q12 127 vmull.s16 q2, d18, xC1S7 // (ip[1] * C1) << 16 128 vmull.s16 q3, d19, xC1S7 129 vmull.s16 q4, d2, xC4S4 // ((ip[0] + ip[4]) * C4) << 16 [all …]
|
D | hevcdsp_idct_neon.S | 37 vmax.s16 \in1, \in1, \c1 38 vmax.s16 \in2, \in2, \c1 39 vmin.s16 \in1, \in1, \c2 40 vmin.s16 \in2, \in2, \c2 52 vqadd.s16 q0, q0, q8 53 vqadd.s16 q1, q1, q9 54 vqmovun.s16 d0, q0 55 vqmovun.s16 d1, q1 69 vqadd.s16 q0, q2 71 vmov.s16 q12, #0 [all …]
|
D | hevcdsp_deblock_neon.S | 41 vrshr.s16 q11, q11, #3 42 vneg.s16 q12, q0 44 vmin.s16 q11, q11, q0 45 vmax.s16 q11, q11, q12 48 vqmovun.s16 d2, q1 49 vqmovun.s16 d4, q2 77 vabd.s16 q7, q7, q10 78 vabd.s16 q6, q6, q13 107 vshl.s16 q5, q5, #1 108 vcgt.s16 q3, q0, q4 [all …]
|
D | simple_idct_neon.S | 49 vmull.s16 q7, d6, w2 /* q9 = W2 * col[2] */ 50 vmull.s16 q8, d6, w6 /* q10 = W6 * col[2] */ 51 vmull.s16 q9, d4, w1 /* q9 = W1 * col[1] */ 53 vmull.s16 q10, d4, w3 /* q10 = W3 * col[1] */ 55 vmull.s16 q5, d4, w5 /* q5 = W5 * col[1] */ 57 vmull.s16 q6, d4, w7 /* q6 = W7 * col[1] */ 60 vmlal.s16 q9, d8, w3 /* q9 += W3 * col[3] */ 61 vmlsl.s16 q10, d8, w7 /* q10 -= W7 * col[3] */ 62 vmlsl.s16 q5, d8, w1 /* q5 -= W1 * col[3] */ 63 vmlsl.s16 q6, d8, w5 /* q6 -= W5 * col[3] */ [all …]
|
D | idctdsp_neon.S | 26 vqmovun.s16 d0, q8 28 vqmovun.s16 d1, q9 30 vqmovun.s16 d2, q10 32 vqmovun.s16 d3, q11 34 vqmovun.s16 d4, q12 36 vqmovun.s16 d5, q13 38 vqmovun.s16 d6, q14 40 vqmovun.s16 d7, q15 51 vqmovn.s16 d0, q8 53 vqmovn.s16 d1, q9 [all …]
|
D | h264idct_neon.S | 32 vshr.s16 q8, q1, #1 47 vshr.s16 q8, q1, #1 58 vrshr.s16 q0, q0, #6 59 vrshr.s16 q1, q1, #6 64 vqmovun.s16 d0, q0 65 vqmovun.s16 d1, q1 81 vrshr.s16 q1, q1, #6 88 vqmovun.s16 d0, q2 89 vqmovun.s16 d1, q1 189 vshr.s16 q2, q10, #1 [all …]
|
D | g722dsp_neon.S | 26 vld1.s16 {d2,d3,d4}, [r0]! /* load prev_samples */ 27 vld1.s16 {d16,d17,d18}, [r3,:64]! /* load qmf_coeffs */ 28 vmull.s16 q0, d2, d16 29 vmlal.s16 q0, d3, d17 30 vmlal.s16 q0, d4, d18 32 vld1.s16 {d5,d6,d7}, [r0]! /* load prev_samples */ 33 vld1.s16 {d19,d20,d21}, [r3,:64]! /* load qmf_coeffs */ 34 vmlal.s16 q0, d5, d19 35 vmlal.s16 q0, d6, d20 36 vmlal.s16 q0, d7, d21
|
D | rv34dsp_neon.S | 26 vmov.s16 d0, #13 27 vshll.s16 q12, d29, #3 28 vshll.s16 q13, d29, #4 29 vshll.s16 q9, d31, #3 30 vshll.s16 q1, d31, #4 31 vmull.s16 q10, d28, d0 32 vmlal.s16 q10, d30, d0 33 vmull.s16 q11, d28, d0 34 vmlsl.s16 q11, d30, d0 35 vsubw.s16 q12, q12, d29 @ z2 = block[i+4*1]*7 [all …]
|
D | mpegvideo_neon.S | 38 vneg.s16 q13, q14 44 vclt.s16 q3, q0, #0 46 vceq.s16 q1, q0, #0 47 vmul.s16 q2, q0, q15 48 vclt.s16 q11, q8, #0 49 vmul.s16 q10, q8, q15 52 vadd.s16 q2, q2, q3 53 vceq.s16 q9, q8, #0 54 vadd.s16 q10, q10, q11 66 vclt.s16 d3, d0, #0 [all …]
|
D | h264dsp_neon.S | 103 vqmovun.s16 d16, q14 104 vqmovun.s16 d17, q6 105 vqmovun.s16 d0, q11 106 vqmovun.s16 d1, q12 214 vqmovun.s16 d16, q14 215 vqmovun.s16 d0, q11 319 vshl.s16 q2, q2, q9 320 vshl.s16 q3, q3, q9 321 vqmovun.s16 d4, q2 322 vqmovun.s16 d5, q3 [all …]
|
D | hevcdsp_qpel_neon.S | 80 vmull.s16 q9, d6, d16 // 58 * d0 81 vmull.s16 q10, d7, d16 // 58 * d1 83 vmull.s16 q11, d4, d17 // 10 * c0 84 vmull.s16 q12, d5, d17 // 10 * c1 86 vmull.s16 q13, d8, d16 // 17 * e0 87 vmull.s16 q14, d9, d16 // 17 * e1 88 vmull.s16 q15, d10, d17 // 5 * f0 89 vmull.s16 q8, d11, d17 // 5 * f1 92 vshll.s16 q11, d2, #2 // 4 * b0 93 vshll.s16 q12, d3, #2 // 4 * b1 [all …]
|
D | sbcdsp_neon.S | 44 vmull.s16 q0, d4, d8 46 vmull.s16 q1, d5, d9 49 vmlal.s16 q0, d6, d10 51 vmlal.s16 q1, d7, d11 54 vmlal.s16 q0, d4, d8 56 vmlal.s16 q1, d5, d9 59 vmlal.s16 q0, d6, d10 61 vmlal.s16 q1, d7, d11 64 vmlal.s16 q0, d4, d8 65 vmlal.s16 q1, d5, d9 [all …]
|
D | lossless_audiodsp_neon.S | 39 vmul.s16 q10, q10, q14 40 vmul.s16 q13, q13, q14 41 vmlal.s16 q0, d16, d18 42 vmlal.s16 q1, d17, d19 43 vadd.s16 q10, q8, q10 44 vadd.s16 q13, q11, q13 45 vmlal.s16 q2, d22, d24 46 vmlal.s16 q3, d23, d25
|
/third_party/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 249 vmul.s16 q8, q8, q0 251 vmul.s16 q9, q9, q1 253 vmul.s16 q10, q10, q2 255 vmul.s16 q11, q11, q3 257 vmul.s16 q12, q12, q0 259 vmul.s16 q14, q14, q2 260 vmul.s16 q13, q13, q1 263 vmul.s16 q15, q15, q3 266 vadd.s16 d4, ROW7L, ROW3L 267 vadd.s16 d5, ROW5L, ROW1L [all …]
|
/third_party/flutter/skia/third_party/externals/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 249 vmul.s16 q8, q8, q0 251 vmul.s16 q9, q9, q1 253 vmul.s16 q10, q10, q2 255 vmul.s16 q11, q11, q3 257 vmul.s16 q12, q12, q0 259 vmul.s16 q14, q14, q2 260 vmul.s16 q13, q13, q1 263 vmul.s16 q15, q15, q3 266 vadd.s16 d4, ROW7L, ROW3L 267 vadd.s16 d5, ROW5L, ROW1L [all …]
|
/third_party/ltp/tools/sparse/sparse-src/validation/linear/ |
D | shift-assign1.c | 1 typedef __INT16_TYPE__ s16; typedef 8 s16 s16s16(s16 a, s16 b) { a >>= b; return a; } in s16s16() 9 s16 s16s32(s16 a, s32 b) { a >>= b; return a; } in s16s32() 10 s16 s16s64(s16 a, s64 b) { a >>= b; return a; } in s16s64() 11 s16 s16u16(s16 a, u16 b) { a >>= b; return a; } in s16u16() 12 s16 s16u32(s16 a, u32 b) { a >>= b; return a; } in s16u32() 13 s16 s16u64(s16 a, u64 b) { a >>= b; return a; } in s16u64() 14 s32 s32s16(s32 a, s16 b) { a >>= b; return a; } in s32s16() 20 s64 s64s16(s64 a, s16 b); 26 u16 u16s16(u16 a, s16 b) { a >>= b; return a; } in u16s16() [all …]
|
/third_party/ffmpeg/libavutil/arm/ |
D | float_dsp_vfp.S | 43 vldmiage r1!, {s16-s19} 48 vmulge.f32 s24, s16, s24 88 vpush {s16-s31} 104 vldmia WIN0!, {s16} 107 vmul.f s8, s16, s8 108 vmls.f s24, s16, s20 118 vldmia WIN0!, {s16-s17} 123 vmul.f s8, s16, s8 125 vmls.f s24, s16, s20 140 vldmia WIN0!, {s16-s19} [all …]
|
/third_party/alsa-lib/src/pcm/ |
D | pcm_meter.c | 1008 snd_pcm_scope_s16_t *s16 = scope->private_data; in s16_enable() local 1009 snd_pcm_meter_t *meter = s16->pcm->private_data; in s16_enable() 1016 s16->buf = (int16_t *) meter->buf; in s16_enable() 1044 s16->index = idx; in s16_enable() 1046 s16->adpcm_states = calloc(spcm->channels, sizeof(*s16->adpcm_states)); in s16_enable() 1047 if (!s16->adpcm_states) in s16_enable() 1050 s16->buf = malloc(meter->buf_size * 2 * spcm->channels); in s16_enable() 1051 if (!s16->buf) { in s16_enable() 1052 free(s16->adpcm_states); in s16_enable() 1057 free(s16->buf); in s16_enable() [all …]
|
/third_party/openh264/codec/decoder/core/arm/ |
D | block_add_neon.S | 38 vaddl.s16 \arg4, \arg0, \arg2 //int32 e[i][0] = src[0] + src[2]; 39 vsubl.s16 \arg5, \arg0, \arg2 //int32 e[i][1] = src[0] - src[2]; 40 vshr.s16 \arg8, \arg1, #1 41 vshr.s16 \arg9, \arg3, #1 42 vsubl.s16 \arg6, \arg8, \arg3 //int32 e[i][2] = (src[1]>>1)-src[3]; 43 vaddl.s16 \arg7, \arg1, \arg9 //int32 e[i][3] = src[1] + (src[3]>>1); 70 vld4.s16 {d0, d1, d2, d3}, [r2] // cost 3 cycles! 100 vadd.s16 q0,q8 101 vadd.s16 q1,q9 103 vqmovun.s16 d20,q0 [all …]
|
/third_party/ffmpeg/tests/fate/ |
D | aac.mak | 3 fate-aac-al04_44: REF = $(SAMPLES)/aac/al04_44.s16 7 fate-aac-al04sf_48: REF = $(SAMPLES)/aac/al04sf_48.s16 11 fate-aac-al05_44: REF = $(SAMPLES)/aac/al05_44.s16 15 fate-aac-al06_44: REF = $(SAMPLES)/aac/al06_44_reorder.s16 19 fate-aac-al07_96: REF = $(SAMPLES)/aac/al07_96_reorder.s16 23 fate-aac-al15_44: REF = $(SAMPLES)/aac/al15_44_reorder.s16 27 fate-aac-al17_44: REF = $(SAMPLES)/aac/al17_44.s16 31 fate-aac-al18_44: REF = $(SAMPLES)/aac/al18_44.s16 35 fate-aac-am00_88: REF = $(SAMPLES)/aac/am00_88.s16 39 fate-aac-am05_44: REF = $(SAMPLES)/aac/am05_44_reorder.s16 [all …]
|
/third_party/ntfs-3g/include/ntfs-3g/ |
D | endians.h | 203 #define sle16_to_cpu(x) (s16)__le16_to_cpu((s16)(x)) 207 #define sle16_to_cpup(x) (s16)__le16_to_cpu(*(s16*)(x)) 223 #define cpu_to_sle16(x) (s16)__cpu_to_le16((s16)(x)) 227 #define cpu_to_sle16p(x) (s16)__cpu_to_le16(*(s16*)(x)) 243 #define sbe16_to_cpu(x) (s16)__be16_to_cpu((s16)(x)) 247 #define sbe16_to_cpup(x) (s16)__be16_to_cpu(*(s16*)(x)) 263 #define cpu_to_sbe16(x) (s16)__cpu_to_be16((s16)(x)) 267 #define cpu_to_sbe16p(x) (s16)__cpu_to_be16(*(s16*)(x)) 281 #define const_sle16_to_cpu(x) ((s16) __constant_le16_to_cpu((le16) x)) 297 #define const_sbe16_to_cpu(x) ((s16) __constant_be16_to_cpu((be16) x))
|