Home
last modified time | relevance | path

Searched refs:s16 (Results 1 – 25 of 222) sorted by relevance

123456789

/third_party/mindspore/mindspore/ccsrc/backend/kernel_compiler/cpu/nnacl/assembly/arm32/
DIndirectGemmInt16to32_8x4.S60 vmull.s16 q8, d8, d0[0]
61 vmull.s16 q9, d8, d2[0]
64 vmlal.s16 q8, d9, d0[1]
65 vmlal.s16 q9, d9, d2[1]
68 vmlal.s16 q8, d10, d0[2]
69 vmlal.s16 q9, d10, d2[2]
70 vmlal.s16 q8, d11, d0[3]
71 vmlal.s16 q9, d11, d2[3]
74 vmull.s16 q10, d8, d4[0]
75 vmull.s16 q11, d8, d6[0]
[all …]
/third_party/openh264/codec/encoder/core/arm/
Dreconstruct_neon.S66 vadd.s16 \arg4, \arg0, \arg3 //int16 s[0] = data[i] + data[i3];
67 vsub.s16 \arg7, \arg0, \arg3 //int16 s[3] = data[i] - data[i3];
68 vadd.s16 \arg5, \arg1, \arg2 //int16 s[1] = data[i1] + data[i2];
69 vsub.s16 \arg6, \arg1, \arg2 //int16 s[2] = data[i1] - data[i2];
71 vadd.s16 \arg0, \arg4, \arg5 //int16 dct[i ] = s[0] + s[1];
72 vsub.s16 \arg2, \arg4, \arg5 //int16 dct[i2] = s[0] - s[1];
73 vshl.s16 \arg1, \arg7, #1
74 vshl.s16 \arg3, \arg6, #1
75 vadd.s16 \arg1, \arg1, \arg6 //int16 dct[i1] = (s[3] << 1) + s[2];
76 vsub.s16 \arg3, \arg7, \arg3 //int16 dct[i3] = s[3] - (s[2] << 1);
[all …]
Dpixel_neon.S56 vadd.s16 q0, q8, q9
59 vsub.s16 q1, q8, q9
64 vadd.s16 q2, q12, q13
65 vsub.s16 q3, q12, q13
67 vadd.s16 q8, q10, q11
68 vsub.s16 q9, q10, q11
70 vadd.s16 q10, q14, q15
71 vsub.s16 q11, q14, q15
73 vadd.s16 q12, q0, q2
74 vsub.s16 q14, q0, q2
[all …]
Dintra_pred_neon.S132 vmul.s16 q1, q0, q1 //q1 = q1*{(8,7,6,5,4,3,2,1) * 5}
133 vmul.s16 q2, q0, q2 //q2 = q2*{(8,7,6,5,4,3,2,1) * 5}
136 vpadd.s16 d0, d2, d3
137 vpadd.s16 d1, d4, d5
138 vpaddl.s16 q0, q0
143 vdup.s16 q1, d0[0]
144 vdup.s16 q2, d1[0]
156 vmla.s16 q3, q0, q1
157 vmla.s16 q3, q2, d0[0]
160 vshl.s16 q8, q1, #3
[all …]
/third_party/ffmpeg/libavcodec/arm/
Dvp3dsp_neon.S41 vrshr.s16 q0, q0, #3
45 vabs.s16 q1, q0
46 vshr.s16 q0, q0, #15
55 vqmovun.s16 d0, q2
56 vqmovun.s16 d1, q3
121 vadd.s16 q1, q8, q12
122 vsub.s16 q8, q8, q12
127 vmull.s16 q2, d18, xC1S7 // (ip[1] * C1) << 16
128 vmull.s16 q3, d19, xC1S7
129 vmull.s16 q4, d2, xC4S4 // ((ip[0] + ip[4]) * C4) << 16
[all …]
Dhevcdsp_idct_neon.S37 vmax.s16 \in1, \in1, \c1
38 vmax.s16 \in2, \in2, \c1
39 vmin.s16 \in1, \in1, \c2
40 vmin.s16 \in2, \in2, \c2
52 vqadd.s16 q0, q0, q8
53 vqadd.s16 q1, q1, q9
54 vqmovun.s16 d0, q0
55 vqmovun.s16 d1, q1
69 vqadd.s16 q0, q2
71 vmov.s16 q12, #0
[all …]
Dhevcdsp_deblock_neon.S41 vrshr.s16 q11, q11, #3
42 vneg.s16 q12, q0
44 vmin.s16 q11, q11, q0
45 vmax.s16 q11, q11, q12
48 vqmovun.s16 d2, q1
49 vqmovun.s16 d4, q2
77 vabd.s16 q7, q7, q10
78 vabd.s16 q6, q6, q13
107 vshl.s16 q5, q5, #1
108 vcgt.s16 q3, q0, q4
[all …]
Dsimple_idct_neon.S49 vmull.s16 q7, d6, w2 /* q9 = W2 * col[2] */
50 vmull.s16 q8, d6, w6 /* q10 = W6 * col[2] */
51 vmull.s16 q9, d4, w1 /* q9 = W1 * col[1] */
53 vmull.s16 q10, d4, w3 /* q10 = W3 * col[1] */
55 vmull.s16 q5, d4, w5 /* q5 = W5 * col[1] */
57 vmull.s16 q6, d4, w7 /* q6 = W7 * col[1] */
60 vmlal.s16 q9, d8, w3 /* q9 += W3 * col[3] */
61 vmlsl.s16 q10, d8, w7 /* q10 -= W7 * col[3] */
62 vmlsl.s16 q5, d8, w1 /* q5 -= W1 * col[3] */
63 vmlsl.s16 q6, d8, w5 /* q6 -= W5 * col[3] */
[all …]
Didctdsp_neon.S26 vqmovun.s16 d0, q8
28 vqmovun.s16 d1, q9
30 vqmovun.s16 d2, q10
32 vqmovun.s16 d3, q11
34 vqmovun.s16 d4, q12
36 vqmovun.s16 d5, q13
38 vqmovun.s16 d6, q14
40 vqmovun.s16 d7, q15
51 vqmovn.s16 d0, q8
53 vqmovn.s16 d1, q9
[all …]
Dh264idct_neon.S32 vshr.s16 q8, q1, #1
47 vshr.s16 q8, q1, #1
58 vrshr.s16 q0, q0, #6
59 vrshr.s16 q1, q1, #6
64 vqmovun.s16 d0, q0
65 vqmovun.s16 d1, q1
81 vrshr.s16 q1, q1, #6
88 vqmovun.s16 d0, q2
89 vqmovun.s16 d1, q1
189 vshr.s16 q2, q10, #1
[all …]
Dg722dsp_neon.S26 vld1.s16 {d2,d3,d4}, [r0]! /* load prev_samples */
27 vld1.s16 {d16,d17,d18}, [r3,:64]! /* load qmf_coeffs */
28 vmull.s16 q0, d2, d16
29 vmlal.s16 q0, d3, d17
30 vmlal.s16 q0, d4, d18
32 vld1.s16 {d5,d6,d7}, [r0]! /* load prev_samples */
33 vld1.s16 {d19,d20,d21}, [r3,:64]! /* load qmf_coeffs */
34 vmlal.s16 q0, d5, d19
35 vmlal.s16 q0, d6, d20
36 vmlal.s16 q0, d7, d21
Drv34dsp_neon.S26 vmov.s16 d0, #13
27 vshll.s16 q12, d29, #3
28 vshll.s16 q13, d29, #4
29 vshll.s16 q9, d31, #3
30 vshll.s16 q1, d31, #4
31 vmull.s16 q10, d28, d0
32 vmlal.s16 q10, d30, d0
33 vmull.s16 q11, d28, d0
34 vmlsl.s16 q11, d30, d0
35 vsubw.s16 q12, q12, d29 @ z2 = block[i+4*1]*7
[all …]
Dmpegvideo_neon.S38 vneg.s16 q13, q14
44 vclt.s16 q3, q0, #0
46 vceq.s16 q1, q0, #0
47 vmul.s16 q2, q0, q15
48 vclt.s16 q11, q8, #0
49 vmul.s16 q10, q8, q15
52 vadd.s16 q2, q2, q3
53 vceq.s16 q9, q8, #0
54 vadd.s16 q10, q10, q11
66 vclt.s16 d3, d0, #0
[all …]
Dh264dsp_neon.S103 vqmovun.s16 d16, q14
104 vqmovun.s16 d17, q6
105 vqmovun.s16 d0, q11
106 vqmovun.s16 d1, q12
214 vqmovun.s16 d16, q14
215 vqmovun.s16 d0, q11
319 vshl.s16 q2, q2, q9
320 vshl.s16 q3, q3, q9
321 vqmovun.s16 d4, q2
322 vqmovun.s16 d5, q3
[all …]
Dhevcdsp_qpel_neon.S80 vmull.s16 q9, d6, d16 // 58 * d0
81 vmull.s16 q10, d7, d16 // 58 * d1
83 vmull.s16 q11, d4, d17 // 10 * c0
84 vmull.s16 q12, d5, d17 // 10 * c1
86 vmull.s16 q13, d8, d16 // 17 * e0
87 vmull.s16 q14, d9, d16 // 17 * e1
88 vmull.s16 q15, d10, d17 // 5 * f0
89 vmull.s16 q8, d11, d17 // 5 * f1
92 vshll.s16 q11, d2, #2 // 4 * b0
93 vshll.s16 q12, d3, #2 // 4 * b1
[all …]
Dsbcdsp_neon.S44 vmull.s16 q0, d4, d8
46 vmull.s16 q1, d5, d9
49 vmlal.s16 q0, d6, d10
51 vmlal.s16 q1, d7, d11
54 vmlal.s16 q0, d4, d8
56 vmlal.s16 q1, d5, d9
59 vmlal.s16 q0, d6, d10
61 vmlal.s16 q1, d7, d11
64 vmlal.s16 q0, d4, d8
65 vmlal.s16 q1, d5, d9
[all …]
Dlossless_audiodsp_neon.S39 vmul.s16 q10, q10, q14
40 vmul.s16 q13, q13, q14
41 vmlal.s16 q0, d16, d18
42 vmlal.s16 q1, d17, d19
43 vadd.s16 q10, q8, q10
44 vadd.s16 q13, q11, q13
45 vmlal.s16 q2, d22, d24
46 vmlal.s16 q3, d23, d25
/third_party/libjpeg-turbo/simd/arm/
Djsimd_neon.S249 vmul.s16 q8, q8, q0
251 vmul.s16 q9, q9, q1
253 vmul.s16 q10, q10, q2
255 vmul.s16 q11, q11, q3
257 vmul.s16 q12, q12, q0
259 vmul.s16 q14, q14, q2
260 vmul.s16 q13, q13, q1
263 vmul.s16 q15, q15, q3
266 vadd.s16 d4, ROW7L, ROW3L
267 vadd.s16 d5, ROW5L, ROW1L
[all …]
/third_party/flutter/skia/third_party/externals/libjpeg-turbo/simd/arm/
Djsimd_neon.S249 vmul.s16 q8, q8, q0
251 vmul.s16 q9, q9, q1
253 vmul.s16 q10, q10, q2
255 vmul.s16 q11, q11, q3
257 vmul.s16 q12, q12, q0
259 vmul.s16 q14, q14, q2
260 vmul.s16 q13, q13, q1
263 vmul.s16 q15, q15, q3
266 vadd.s16 d4, ROW7L, ROW3L
267 vadd.s16 d5, ROW5L, ROW1L
[all …]
/third_party/ltp/tools/sparse/sparse-src/validation/linear/
Dshift-assign1.c1 typedef __INT16_TYPE__ s16; typedef
8 s16 s16s16(s16 a, s16 b) { a >>= b; return a; } in s16s16()
9 s16 s16s32(s16 a, s32 b) { a >>= b; return a; } in s16s32()
10 s16 s16s64(s16 a, s64 b) { a >>= b; return a; } in s16s64()
11 s16 s16u16(s16 a, u16 b) { a >>= b; return a; } in s16u16()
12 s16 s16u32(s16 a, u32 b) { a >>= b; return a; } in s16u32()
13 s16 s16u64(s16 a, u64 b) { a >>= b; return a; } in s16u64()
14 s32 s32s16(s32 a, s16 b) { a >>= b; return a; } in s32s16()
20 s64 s64s16(s64 a, s16 b);
26 u16 u16s16(u16 a, s16 b) { a >>= b; return a; } in u16s16()
[all …]
/third_party/ffmpeg/libavutil/arm/
Dfloat_dsp_vfp.S43 vldmiage r1!, {s16-s19}
48 vmulge.f32 s24, s16, s24
88 vpush {s16-s31}
104 vldmia WIN0!, {s16}
107 vmul.f s8, s16, s8
108 vmls.f s24, s16, s20
118 vldmia WIN0!, {s16-s17}
123 vmul.f s8, s16, s8
125 vmls.f s24, s16, s20
140 vldmia WIN0!, {s16-s19}
[all …]
/third_party/alsa-lib/src/pcm/
Dpcm_meter.c1008 snd_pcm_scope_s16_t *s16 = scope->private_data; in s16_enable() local
1009 snd_pcm_meter_t *meter = s16->pcm->private_data; in s16_enable()
1016 s16->buf = (int16_t *) meter->buf; in s16_enable()
1044 s16->index = idx; in s16_enable()
1046 s16->adpcm_states = calloc(spcm->channels, sizeof(*s16->adpcm_states)); in s16_enable()
1047 if (!s16->adpcm_states) in s16_enable()
1050 s16->buf = malloc(meter->buf_size * 2 * spcm->channels); in s16_enable()
1051 if (!s16->buf) { in s16_enable()
1052 free(s16->adpcm_states); in s16_enable()
1057 free(s16->buf); in s16_enable()
[all …]
/third_party/openh264/codec/decoder/core/arm/
Dblock_add_neon.S38 vaddl.s16 \arg4, \arg0, \arg2 //int32 e[i][0] = src[0] + src[2];
39 vsubl.s16 \arg5, \arg0, \arg2 //int32 e[i][1] = src[0] - src[2];
40 vshr.s16 \arg8, \arg1, #1
41 vshr.s16 \arg9, \arg3, #1
42 vsubl.s16 \arg6, \arg8, \arg3 //int32 e[i][2] = (src[1]>>1)-src[3];
43 vaddl.s16 \arg7, \arg1, \arg9 //int32 e[i][3] = src[1] + (src[3]>>1);
70 vld4.s16 {d0, d1, d2, d3}, [r2] // cost 3 cycles!
100 vadd.s16 q0,q8
101 vadd.s16 q1,q9
103 vqmovun.s16 d20,q0
[all …]
/third_party/ffmpeg/tests/fate/
Daac.mak3 fate-aac-al04_44: REF = $(SAMPLES)/aac/al04_44.s16
7 fate-aac-al04sf_48: REF = $(SAMPLES)/aac/al04sf_48.s16
11 fate-aac-al05_44: REF = $(SAMPLES)/aac/al05_44.s16
15 fate-aac-al06_44: REF = $(SAMPLES)/aac/al06_44_reorder.s16
19 fate-aac-al07_96: REF = $(SAMPLES)/aac/al07_96_reorder.s16
23 fate-aac-al15_44: REF = $(SAMPLES)/aac/al15_44_reorder.s16
27 fate-aac-al17_44: REF = $(SAMPLES)/aac/al17_44.s16
31 fate-aac-al18_44: REF = $(SAMPLES)/aac/al18_44.s16
35 fate-aac-am00_88: REF = $(SAMPLES)/aac/am00_88.s16
39 fate-aac-am05_44: REF = $(SAMPLES)/aac/am05_44_reorder.s16
[all …]
/third_party/ntfs-3g/include/ntfs-3g/
Dendians.h203 #define sle16_to_cpu(x) (s16)__le16_to_cpu((s16)(x))
207 #define sle16_to_cpup(x) (s16)__le16_to_cpu(*(s16*)(x))
223 #define cpu_to_sle16(x) (s16)__cpu_to_le16((s16)(x))
227 #define cpu_to_sle16p(x) (s16)__cpu_to_le16(*(s16*)(x))
243 #define sbe16_to_cpu(x) (s16)__be16_to_cpu((s16)(x))
247 #define sbe16_to_cpup(x) (s16)__be16_to_cpu(*(s16*)(x))
263 #define cpu_to_sbe16(x) (s16)__cpu_to_be16((s16)(x))
267 #define cpu_to_sbe16p(x) (s16)__cpu_to_be16(*(s16*)(x))
281 #define const_sle16_to_cpu(x) ((s16) __constant_le16_to_cpu((le16) x))
297 #define const_sbe16_to_cpu(x) ((s16) __constant_be16_to_cpu((be16) x))

123456789