/external/libhevc/decoder/arm/ |
D | ihevcd_fmt_conv_420sp_to_rgba8888.s | 193 VMULL.S16 Q4,D4,D0[3] @//(U-128)*C4 FOR B 194 VMULL.S16 Q5,D5,D0[3] @//(U-128)*C4 FOR B 196 VMULL.S16 Q10,D6,D0[0] @//(V-128)*C1 FOR R 197 VMULL.S16 Q11,D7,D0[0] @//(V-128)*C1 FOR R 199 VMULL.S16 Q6,D4,D0[1] @//(U-128)*C2 FOR G 200 VMLAL.S16 Q6,D6,D0[2] @//Q6 = (U-128)*C2 + (V-128)*C3 201 VMULL.S16 Q7,D5,D0[1] @//(U-128)*C2 FOR G 202 VMLAL.S16 Q7,D7,D0[2] @//Q7 = (U-128)*C2 + (V-128)*C3 227 VQMOVUN.S16 D14,Q7 228 VQMOVUN.S16 D15,Q9 [all …]
|
/external/libxaac/decoder/armv7/ |
D | ixheaacd_sbr_qmfsyn64_winadd.s | 65 VMLAL.S16 Q13, D0, D1 69 VMLAL.S16 Q13, D2, D3 74 VMLAL.S16 Q13, D5, D4 79 VMLAL.S16 Q13, D7, D6 87 VMLAL.S16 Q13, D9, D8 99 VMLAL.S16 Q13, D10, D11 103 VMLAL.S16 Q13, D12, D13 108 VMLAL.S16 Q13, D15, D14 113 VMLAL.S16 Q13, D17, D16 117 VMLAL.S16 Q13, D19, D18 [all …]
|
D | ixheaacd_post_twiddle.s | 122 VMLAL.S16 Q15, D3, D13 123 VMLAL.S16 Q14, D1, D13 124 VMLAL.S16 Q13, D3, D12 125 VMLAL.S16 Q12, D1, D12 151 VMLAL.S16 Q11, D7, D9 152 VMLAL.S16 Q10, D5, D9 153 VMLAL.S16 Q9, D7, D8 154 VMLAL.S16 Q8, D5, D8 179 VMLAL.S16 Q0, D27, D10 182 VMLAL.S16 Q1, D25, D10 [all …]
|
D | ixheaacd_sbr_qmfanal32_winadds.s | 90 VMULL.S16 Q15, D0, D1 96 VMLAL.S16 Q15, D2, D3 103 VMLAL.S16 Q15, D4, D5 110 VMLAL.S16 Q15, D6, D7 118 VMLAL.S16 Q15, D8, D9 174 VMULL.S16 Q15, D10, D11 176 VMLAL.S16 Q15, D12, D13 178 VMLAL.S16 Q15, D14, D15 180 VMLAL.S16 Q15, D16, D17 182 VMLAL.S16 Q15, D18, D19 [all …]
|
D | ixheaacd_pre_twiddle_compute.s | 134 VMLAL.S16 Q15, D3, D9 135 VMLAL.S16 Q14, D5, D9 136 VMLAL.S16 Q13, D3, D8 137 VMLAL.S16 Q12, D5, D8 153 VMLAL.S16 Q11, D1, D11 156 VMLAL.S16 Q10, D7, D11 159 VMLAL.S16 Q9, D1, D10 162 VMLAL.S16 Q8, D7, D10 203 VMLAL.S16 Q15, D3, D9 204 VMLAL.S16 Q14, D5, D9 [all …]
|
D | ixheaacd_post_twiddle_overlap.s | 45 VMOV.S16 D18, #50 218 VMLAL.S16 Q15, D1, D9 221 VMLAL.S16 Q14, D3, D8 229 VMLAL.S16 Q13, D1, D8 230 VMLAL.S16 Q12, D3, D9 254 VMLAL.S16 Q11, D5, D8 258 VMLAL.S16 Q1, D25, D18 259 VMLAL.S16 Q0, D27, D18 270 VMLAL.S16 Q12, D5, D9 273 VMLAL.S16 Q13, D7, D8 [all …]
|
D | ixheaacd_dec_DCT2_64_asm.s | 112 VMLAL.S16 Q15, D21, D8 113 VMLSL.S16 Q15, D19, D10 117 VMLAL.S16 Q14, D19, D8 119 VMLAL.S16 Q14, D21, D10 169 VMLAL.S16 Q15, D21, D8 170 VMLSL.S16 Q15, D19, D10 173 VMLAL.S16 Q14, D19, D8 175 VMLAL.S16 Q14, D21, D10 213 VMLAL.S16 Q15, D21, D8 215 VMLSL.S16 Q15, D19, D10 [all …]
|
D | ixheaacd_sbr_qmfanal32_winadds_eld.s | 67 VMULL.S16 Q15, D0, D1 73 VMLAL.S16 Q15, D2, D3 81 VMLAL.S16 Q15, D4, D5 88 VMLAL.S16 Q15, D6, D7 96 VMLAL.S16 Q15, D8, D9 154 VMULL.S16 Q15, D10, D11 156 VMLAL.S16 Q15, D12, D13 158 VMLAL.S16 Q15, D14, D15 160 VMLAL.S16 Q15, D16, D17 162 VMLAL.S16 Q15, D18, D19 [all …]
|
D | ixheaacd_dct3_32.s | 97 VMLAL.S16 Q15, D5, D12 98 VMLAL.S16 Q15, D11, D13 102 VMLAL.S16 Q14, D5, D13 104 VMLSL.S16 Q14, D11, D12 146 VMLAL.S16 Q14, D5, D13 148 VMLSL.S16 Q14, D11, D12 150 VMLAL.S16 Q15, D5, D12 153 VMLAL.S16 Q15, D11, D13 183 VMLAL.S16 Q15, D5, D12 185 VMLAL.S16 Q15, D11, D13 [all …]
|
D | ixheaacd_overlap_add2.s | 68 VMLAL.S16 Q13, D1, D2 69 VMLSL.S16 Q13, D5, D3 90 VMLAL.S16 Q9, D9, D10 94 VMLAL.S16 Q13, D1, D2 97 VMLSL.S16 Q9, D13, D11 98 VMLSL.S16 Q13, D5, D3 130 VMLAL.S16 Q9, D9, D10 131 VMLSL.S16 Q9, D13, D11 174 VMLAL.S16 Q13, D0, D3 175 VMLSL.S16 Q13, D5, D2 [all …]
|
D | ixheaacd_overlap_add1.s | 44 VDUP.S16 D12, R12 74 VMLAL.S16 Q15, D6, D2 78 VADDL.S16 Q7, D3, D12 94 VMLAL.S16 Q12, D0, D3 99 VADDL.S16 Q7, D2, D12 133 VMLAL.S16 Q15, D6, D2 135 VMLAL.S16 Q12, D0, D3 143 VADDL.S16 Q7, D3, D12 153 VADDL.S16 Q7, D2, D12 181 VMLAL.S16 Q15, D6, D2 @MLA [all …]
|
D | ixheaacd_sbr_imdct_using_fft.s | 327 VQDMLAL.S16 q4, d27, d20 328 VQDMLAL.S16 q3, d29, d20 350 VQDMLAL.S16 q13, d25, d20 351 VQDMLAL.S16 q14, d3, d20 706 VMULL.S16 q11, d10, d0 707 VMLSL.S16 q11, d12, d1 709 VMULL.S16 q12, d10, d1 710 VMLAL.S16 q12, d12, d0 720 VMULL.S16 q13, d14, d2 721 VMLSL.S16 q13, d16, d3 [all …]
|
D | ixheaacd_imdct_using_fft.s | 323 VQDMLAL.S16 q4, d27, d20 324 VQDMLAL.S16 q3, d29, d20 346 VQDMLAL.S16 q13, d25, d20 347 VQDMLAL.S16 q14, d3, d20 677 VMULL.S16 q11, d10, d0 678 VMLSL.S16 q11, d12, d1 680 VMULL.S16 q12, d10, d1 681 VMLAL.S16 q12, d12, d0 691 VMULL.S16 q13, d14, d2 692 VMLSL.S16 q13, d16, d3 [all …]
|
D | ixheaacd_fft32x32_ld.s | 331 VQDMLAL.S16 q4, d27, d20 332 VQDMLAL.S16 q3, d29, d20 354 VQDMLAL.S16 q13, d25, d20 355 VQDMLAL.S16 q14, d3, d20 710 VMULL.S16 q11, d10, d0 @prod_1r=vmull_s16(a_data1.val[0], cos_1)@ 711 VMLSL.S16 q11, d12, d1 @prod_1r=vmlsl_s16(prod_1r, a_data1.val[2], sin_1)@ 713 VMULL.S16 q12, d10, d1 @prod_1i=vmull_s16(a_data1.val[0], sin_1)@ 714 VMLAL.S16 q12, d12, d0 @prod_1i=vmlal_s16(prod_1i, a_data1.val[2], cos_1)@ 724 VMULL.S16 q13, d14, d2 @prod_2r=vmull_s16(a_data2.val[0], cos_2)@ 725 VMLSL.S16 q13, d16, d3 @prod_2r=vmlsl_s16(prod_2r, a_data2.val[2], sin_2)@ [all …]
|
/external/dhcpcd-6.8.2/compat/ |
D | arc4random.c | 44 #define S16(n) S4(n), S4(n + 4), S4(n + 8), S4(n + 12) macro 45 #define S64(n) S16(n), S16(n + 16), S16(n + 32), S16(n + 48) 53 #undef S16
|
/external/clang/test/CodeGen/ |
D | mips64-padding-arg.c | 62 } S16; typedef 64 S16 s16; 66 void foo10(int, S16);
|
/external/tensorflow/tensorflow/compiler/xla/ |
D | primitive_util.cc | 30 return type == S8 || type == S16 || type == S32 || type == S64; in IsSignedIntegralType() 50 case S16: in BitWidth()
|
D | primitive_util.h | 86 return S16; 183 struct PrimitiveTypeToNative<S16> {
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class1.s | 192 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 203 …VMAX.S16 Q4,Q4,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 215 …VMAX.S16 Q13,Q13,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 218 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val… 249 …VMAX.S16 Q13,Q13,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 255 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 329 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 336 …VMAX.S16 Q13,Q13,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 367 …VMAX.S16 Q13,Q13,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]…
|
D | ihevc_sao_edge_offset_class1_chroma.s | 198 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 210 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 227 …VMAX.S16 Q13,Q13,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 230 …VMAX.S16 Q14,Q14,Q1 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val… 266 …VMAX.S16 Q13,Q13,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 272 …VMAX.S16 Q14,Q14,Q1 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 353 …VMAX.S16 Q10,Q10,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 366 …VMAX.S16 Q13,Q13,Q1 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 402 …VMAX.S16 Q13,Q13,Q1 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]…
|
D | ihevc_sao_edge_offset_class0.s | 228 …VMAX.S16 Q9,Q9,Q2 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 240 …VMAX.S16 Q7,Q7,Q2 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 248 …VMAX.S16 Q0,Q0,Q2 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 256 …VMAX.S16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val… 333 …VMAX.S16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]…
|
D | ihevc_sao_edge_offset_class0_chroma.s | 238 …VMAX.S16 Q9,Q9,Q2 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 246 …VMAX.S16 Q6,Q6,Q2 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 264 …VMAX.S16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val… 274 …VMAX.S16 Q15,Q15,Q2 @II pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val… 401 …VMAX.S16 Q9,Q9,Q2 @pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val[0]… 427 …VMAX.S16 Q12,Q12,Q2 @II pi2_tmp_cur_row.val[0] = vmaxq_s16(pi2_tmp_cur_row.val…
|
/external/clang/test/PCH/ |
D | cxx-key-functions.cpp | 24 struct S16 { virtual void f(); }; struct 83 S10, S11, S12, S13, S14, S15, S16, S17, S18, S19,
|
/external/compiler-rt/lib/sanitizer_common/ |
D | sanitizer_libc.cc | 77 struct ALIGNED(16) S16 { u64 a, b; }; in internal_bzero_aligned16() argument 79 for (S16 *p = reinterpret_cast<S16*>(s), *end = p + n / 16; p < end; p++) { in internal_bzero_aligned16()
|
/external/libopus/celt/arm/ |
D | celt_pitch_xcorr_arm_gnu.s | 116 VMLAL.S16 q0, d4, d6[0] 118 VMLAL.S16 q0, d16, d6[1] 120 VMLAL.S16 q0, d16, d6[2] 122 VMLAL.S16 q0, d16, d6[3] 139 VMLAL.S16 q0, d16, d7 146 VMLAL.S16 q0, d5, d6 154 VMLAL.S16 q0, d4, d6
|