Home
last modified time | relevance | path

Searched refs:U16 (Results 1 – 25 of 96) sorted by relevance

1234

/external/skia/src/opts/
DSkRasterPipeline_opts.h130 using U16 = uint16_t; variable
142 SI U16 pack(U32 v) { return (U16)v; } in pack()
143 SI U8 pack(U16 v) { return (U8)v; } in pack()
150 SI void load3(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b) { in load3()
155 SI void load4(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b, U16* a) { in load4()
161 SI void store4(uint16_t* ptr, size_t tail, U16 r, U16 g, U16 b, U16 a) { in store4()
188 using U16 = V<uint16_t>;
197 SI U16 pack(U32 v) { return __builtin_convertvector(v, U16); }
198 SI U8 pack(U16 v) { return __builtin_convertvector(v, U8); }
232 SI void load3(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b) {
[all …]
/external/skqp/src/opts/
DSkRasterPipeline_opts.h130 using U16 = uint16_t; variable
142 SI U16 pack(U32 v) { return (U16)v; } in pack()
143 SI U8 pack(U16 v) { return (U8)v; } in pack()
150 SI void load3(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b) { in load3()
155 SI void load4(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b, U16* a) { in load4()
161 SI void store4(uint16_t* ptr, size_t tail, U16 r, U16 g, U16 b, U16 a) { in store4()
188 using U16 = V<uint16_t>;
197 SI U16 pack(U32 v) { return __builtin_convertvector(v, U16); }
198 SI U8 pack(U16 v) { return __builtin_convertvector(v, U8); }
232 SI void load3(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b) {
[all …]
/external/libxaac/decoder/armv7/
Dixheaacd_post_twiddle.s112 VMULL.U16 Q15, D2, D13
113 VMULL.U16 Q14, D0, D13
114 VMULL.U16 Q13, D2, D12
115 VMULL.U16 Q12, D0, D12
127 VMULL.U16 Q11, D6, D9
128 VMULL.U16 Q10, D4, D9
135 VMULL.U16 Q9, D6, D8
136 VMULL.U16 Q8, D4, D8
157 VMULL.U16 Q0, D26, D10
160 VMULL.U16 Q1, D24, D10
[all …]
Dixheaacd_pre_twiddle_compute.s124 VMULL.U16 Q15, D2, D9
125 VMULL.U16 Q14, D4, D9
126 VMULL.U16 Q13, D2, D8
127 VMULL.U16 Q12, D4, D8
143 VMULL.U16 Q11, D0, D11
144 VMULL.U16 Q10, D6, D11
145 VMULL.U16 Q9, D0, D10
146 VMULL.U16 Q8, D6, D10
190 VMULL.U16 Q15, D2, D9
192 VMULL.U16 Q14, D4, D9
[all …]
Dixheaacd_dec_DCT2_64_asm.s104 VMULL.U16 Q15, D20, D8
105 VMLSL.U16 Q15, D18, D10
106 VMULL.U16 Q14, D18, D8
107 VMLAL.U16 Q14, D20, D10
159 VMULL.U16 Q15, D20, D8
161 VMLSL.U16 Q15, D18, D10
163 VMULL.U16 Q14, D18, D8
165 VMLAL.U16 Q14, D20, D10
200 VMULL.U16 Q15, D20, D8
201 VMLSL.U16 Q15, D18, D10
[all …]
Dixheaacd_dct3_32.s72 VMULL.U16 Q15, D4, D12
75 VMULL.U16 Q14, D4, D13
85 VMLAL.U16 Q15, D10, D13
87 VMLSL.U16 Q14, D10, D12
128 VMULL.U16 Q15, D4, D12
129 VMLAL.U16 Q15, D10, D13
130 VMULL.U16 Q14, D4, D13
132 VMLSL.U16 Q14, D10, D12
171 VMULL.U16 Q15, D4, D12
173 VMLAL.U16 Q15, D10, D13
[all …]
Dixheaacd_post_twiddle_overlap.s200 VMULL.U16 Q15, D0, D9
203 VMULL.U16 Q14, D2, D8
206 VMULL.U16 Q13, D0, D8
209 VMULL.U16 Q12, D2, D9
237 VMULL.U16 Q11, D4, D8
249 VMULL.U16 Q1, D24, D18
251 VMULL.U16 Q0, D26, D18
261 VMULL.U16 Q12, D4, D9
262 VMULL.U16 Q13, D6, D8
268 VMULL.U16 Q0, D6, D9
[all …]
Dixheaacd_overlap_add2.s63 VMULL.U16 Q13, D0, D2
64 VMLSL.U16 Q13, D4, D3
80 VMULL.U16 Q9, D8, D10
82 VMLSL.U16 Q9, D12, D11
84 VMULL.U16 Q13, D0, D2
86 VMLSL.U16 Q13, D4, D3
124 VMULL.U16 Q9, D8, D10
125 VMLSL.U16 Q9, D12, D11
171 VMULL.U16 Q13, D1, D3
172 VMLSL.U16 Q13, D4, D2
[all …]
Dixheaacd_overlap_add1.s70 VMULL.U16 Q15, D7, D2
92 VMULL.U16 Q12, D1, D3
125 VMULL.U16 Q15, D7, D2
127 VMULL.U16 Q12, D1, D3
172 VMULL.U16 Q15, D7, D2
177 VMULL.U16 Q12, D1, D3
235 VMULL.U16 Q15, D7, D2
237 VMULL.U16 Q12, D1, D3
Dixheaacd_sbr_imdct_using_fft.s702 VSHR.U16 d10, d10, #1
704 VSHR.U16 d12, d12, #1
712 VSHR.U16 d14, d14, #1
713 VSHR.U16 d16, d16, #1
717 VSHR.U16 d18, d18, #1
718 VSHR.U16 d20, d20, #1
/external/skia/third_party/skcms/src/
DTransform_inl.h138 SI F F_from_Half(U16 half) { in F_from_Half()
165 SI U16 Half_from_F(F f) { in Half_from_F()
167 return (U16)vcvt_f16_f32(f); in Half_from_F()
169 return (U16)_mm512_cvtps_ph((__m512 )f, _MM_FROUND_CUR_DIRECTION ); in Half_from_F()
171 return (U16)__builtin_ia32_vcvtps2ph256(f, 0x04/*_MM_FROUND_CUR_DIRECTION*/); in Half_from_F()
179 return cast<U16>(if_then_else(em < 0x38800000, (U32)F0 in Half_from_F()
186 SI U16 swap_endian_16(U16 v) { in swap_endian_16()
187 return (U16)vrev16_u8((uint8x8_t) v); in swap_endian_16()
351 SI U16 gather_16(const uint8_t* p, I32 ix) { in gather_16()
357 U16 v = load_16(ix); in gather_16()
[all …]
/external/skqp/third_party/skcms/src/
DTransform_inl.h138 SI F F_from_Half(U16 half) { in F_from_Half()
165 SI U16 Half_from_F(F f) { in Half_from_F()
167 return (U16)vcvt_f16_f32(f); in Half_from_F()
169 return (U16)_mm512_cvtps_ph((__m512 )f, _MM_FROUND_CUR_DIRECTION ); in Half_from_F()
171 return (U16)__builtin_ia32_vcvtps2ph256(f, 0x04/*_MM_FROUND_CUR_DIRECTION*/); in Half_from_F()
179 return cast<U16>(if_then_else(em < 0x38800000, (U32)F0 in Half_from_F()
186 SI U16 swap_endian_16(U16 v) { in swap_endian_16()
187 return (U16)vrev16_u8((uint8x8_t) v); in swap_endian_16()
351 SI U16 gather_16(const uint8_t* p, I32 ix) { in gather_16()
357 U16 v = load_16(ix); in gather_16()
[all …]
/external/libhevc/encoder/arm/
Dihevce_coarse_layer_sad_neon.c183 U16 *pu2_sad = (U16 *)&pi2_sads_4x4 in hme_store_4x4_sads_high_speed_neon()
334 U16 *pu2_sad = (U16 *)&pi2_sads_4x4 in hme_store_4x4_sads_high_quality_neon()
493 uint16x8_t mvy_wt = vld1q_u16((U16 *)&gi2_mvy_range[ABS(mvy)][0]); in hme_combine_4x4_sads_and_compute_cost_high_speed_neon()
505 uint16x8_t curr = vld1q_u16((U16 *)pi2_sads_4x4_current + sad_pos); in hme_combine_4x4_sads_and_compute_cost_high_speed_neon()
506 uint16x8_t south = vld1q_u16((U16 *)pi2_sads_4x4_south + sad_pos); in hme_combine_4x4_sads_and_compute_cost_high_speed_neon()
507 uint16x8_t east = vld1q_u16((U16 *)pi2_sads_4x4_east + sad_pos); in hme_combine_4x4_sads_and_compute_cost_high_speed_neon()
512 vld1q_u16((U16 *)&gi2_mvx_range[mvx + MAX_MVX_SUPPORTED_IN_COARSE_LAYER][0]); in hme_combine_4x4_sads_and_compute_cost_high_speed_neon()
515 U16 sad_array[2][8]; in hme_combine_4x4_sads_and_compute_cost_high_speed_neon()
545 uint16x4_t curr = vld1_u16((U16 *)pi2_sads_4x4_current + sad_pos); in hme_combine_4x4_sads_and_compute_cost_high_speed_neon()
546 uint16x4_t south = vld1_u16((U16 *)pi2_sads_4x4_south + sad_pos); in hme_combine_4x4_sads_and_compute_cost_high_speed_neon()
[all …]
/external/google-breakpad/src/client/linux/dump_writer_common/
Dthread_info.cc43 void U16(void* out, uint16_t v) { in U16() function
108 U16(out->extended_registers + 0, fpregs.cwd); in FillCPUContext()
109 U16(out->extended_registers + 2, fpregs.swd); in FillCPUContext()
110 U16(out->extended_registers + 4, fpregs.twd); in FillCPUContext()
111 U16(out->extended_registers + 6, fpxregs.fop); in FillCPUContext()
113 U16(out->extended_registers + 12, fpxregs.fcs); in FillCPUContext()
115 U16(out->extended_registers + 20, fpregs.fos); in FillCPUContext()
/external/lz4/lib/
Dlz4.c178 typedef uint16_t U16; typedef
185 typedef unsigned short U16; typedef
211 static U16 LZ4_read16(const void* memPtr) { return *(const U16*) memPtr; } in LZ4_read16()
215 static void LZ4_write16(void* memPtr, U16 value) { *(U16*)memPtr = value; } in LZ4_write16()
222 typedef union { U16 u16; U32 u32; reg_t uArch; } __attribute__((packed)) unalign;
224 static U16 LZ4_read16(const void* ptr) { return ((const unalign*)ptr)->u16; } in LZ4_read16()
228 static void LZ4_write16(void* memPtr, U16 value) { ((unalign*)memPtr)->u16 = value; } in LZ4_write16()
233 static U16 LZ4_read16(const void* memPtr) in LZ4_read16()
235 U16 val; memcpy(&val, memPtr, sizeof(val)); return val; in LZ4_read16()
248 static void LZ4_write16(void* memPtr, U16 value) in LZ4_write16()
[all …]
/external/libhevc/encoder/
Dhme_common_utils.c91 U32 hme_compute_2d_sum_u16(U16 *pu2_inp, S32 i4_wd, S32 i4_ht, S32 i4_stride) in hme_compute_2d_sum_u16()
151 else if(i4_datatype == sizeof(U16)) in hme_compute_2d_sum_unsigned()
152 return (hme_compute_2d_sum_u16((U16 *)pv_inp, i4_blk_wd, i4_blk_ht, i4_stride)); in hme_compute_2d_sum_unsigned()
Dhme_datatype.h43 typedef UWORD16 U16; typedef
/external/tensorflow/tensorflow/compiler/xla/
Dprimitive_util.cc53 return type == U8 || type == U16 || type == U32 || type == U64; in IsUnsignedIntegralType()
70 case U16: in BitWidth()
105 return xla::U16; in UnsignedIntegralTypeForBitWidth()
Dliteral_util.cc109 case U16: in Zero()
175 case U16: in One()
213 case U16: in MinValue()
253 case U16: in MaxValue()
387 case U16: in GetFirstScalarLiteral()
Dprimitive_util.h72 return U16;
179 struct PrimitiveTypeToNative<U16> {
Dliteral.cc403 COPY_ELEMENTS(U16, uint16); in CopyFrom()
517 case U16: in CopySliceFrom()
750 case U16: in Slice()
805 case U16: in GetAsString()
856 case U16: in GetSparseElementAsString()
991 case U16: in SortSparseElements()
1346 CONVERT_IF_TYPES_MATCH(U16) in ConvertIfDestTypeMatches()
1391 CONVERT_IF_DEST_TYPE_MATCHES(U16) in ConvertSwitch()
1497 case U16: in EqualElements()
1569 case U16: in IsAll()
[all …]
/external/libhevc/common/arm/
Dihevc_sao_edge_offset_class1.s194 …VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
205 …VMIN.U16 Q4,Q4,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(…
216 …VMIN.U16 Q13,Q13,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u…
219 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u…
250 …VMIN.U16 Q13,Q13,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
256 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(…
331 …VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
337 …VMIN.U16 Q13,Q13,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u…
368 …VMIN.U16 Q13,Q13,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
Dihevc_sao_edge_offset_class1_chroma.s200 …VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
215 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(…
228 …VMIN.U16 Q13,Q13,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u…
231 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u…
267 …VMIN.U16 Q13,Q13,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
273 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(…
357 …VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
367 …VMIN.U16 Q13,Q13,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u…
403 …VMIN.U16 Q13,Q13,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
Dihevc_sao_edge_offset_class0.s231 …VMIN.U16 Q9,Q9,Q3 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
242 …VMIN.U16 Q7,Q7,Q3 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(…
251 …VMIN.U16 Q0,Q0,Q3 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u…
258 …VMIN.U16 Q14,Q14,Q3 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u…
334 …VMIN.U16 Q14,Q14,Q3 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
/external/tensorflow/tensorflow/compiler/xla/python_api/
Dtypes.py98 xla_data_pb2.U16:
100 primitive_type=xla_data_pb2.U16,

1234