/external/skia/src/opts/ |
D | SkRasterPipeline_opts.h | 130 using U16 = uint16_t; variable 142 SI U16 pack(U32 v) { return (U16)v; } in pack() 143 SI U8 pack(U16 v) { return (U8)v; } in pack() 150 SI void load3(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b) { in load3() 155 SI void load4(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b, U16* a) { in load4() 161 SI void store4(uint16_t* ptr, size_t tail, U16 r, U16 g, U16 b, U16 a) { in store4() 188 using U16 = V<uint16_t>; 197 SI U16 pack(U32 v) { return __builtin_convertvector(v, U16); } 198 SI U8 pack(U16 v) { return __builtin_convertvector(v, U8); } 232 SI void load3(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b) { [all …]
|
/external/skqp/src/opts/ |
D | SkRasterPipeline_opts.h | 130 using U16 = uint16_t; variable 142 SI U16 pack(U32 v) { return (U16)v; } in pack() 143 SI U8 pack(U16 v) { return (U8)v; } in pack() 150 SI void load3(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b) { in load3() 155 SI void load4(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b, U16* a) { in load4() 161 SI void store4(uint16_t* ptr, size_t tail, U16 r, U16 g, U16 b, U16 a) { in store4() 188 using U16 = V<uint16_t>; 197 SI U16 pack(U32 v) { return __builtin_convertvector(v, U16); } 198 SI U8 pack(U16 v) { return __builtin_convertvector(v, U8); } 232 SI void load3(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b) { [all …]
|
/external/libxaac/decoder/armv7/ |
D | ixheaacd_post_twiddle.s | 112 VMULL.U16 Q15, D2, D13 113 VMULL.U16 Q14, D0, D13 114 VMULL.U16 Q13, D2, D12 115 VMULL.U16 Q12, D0, D12 127 VMULL.U16 Q11, D6, D9 128 VMULL.U16 Q10, D4, D9 135 VMULL.U16 Q9, D6, D8 136 VMULL.U16 Q8, D4, D8 157 VMULL.U16 Q0, D26, D10 160 VMULL.U16 Q1, D24, D10 [all …]
|
D | ixheaacd_pre_twiddle_compute.s | 124 VMULL.U16 Q15, D2, D9 125 VMULL.U16 Q14, D4, D9 126 VMULL.U16 Q13, D2, D8 127 VMULL.U16 Q12, D4, D8 143 VMULL.U16 Q11, D0, D11 144 VMULL.U16 Q10, D6, D11 145 VMULL.U16 Q9, D0, D10 146 VMULL.U16 Q8, D6, D10 190 VMULL.U16 Q15, D2, D9 192 VMULL.U16 Q14, D4, D9 [all …]
|
D | ixheaacd_dec_DCT2_64_asm.s | 104 VMULL.U16 Q15, D20, D8 105 VMLSL.U16 Q15, D18, D10 106 VMULL.U16 Q14, D18, D8 107 VMLAL.U16 Q14, D20, D10 159 VMULL.U16 Q15, D20, D8 161 VMLSL.U16 Q15, D18, D10 163 VMULL.U16 Q14, D18, D8 165 VMLAL.U16 Q14, D20, D10 200 VMULL.U16 Q15, D20, D8 201 VMLSL.U16 Q15, D18, D10 [all …]
|
D | ixheaacd_dct3_32.s | 72 VMULL.U16 Q15, D4, D12 75 VMULL.U16 Q14, D4, D13 85 VMLAL.U16 Q15, D10, D13 87 VMLSL.U16 Q14, D10, D12 128 VMULL.U16 Q15, D4, D12 129 VMLAL.U16 Q15, D10, D13 130 VMULL.U16 Q14, D4, D13 132 VMLSL.U16 Q14, D10, D12 171 VMULL.U16 Q15, D4, D12 173 VMLAL.U16 Q15, D10, D13 [all …]
|
D | ixheaacd_post_twiddle_overlap.s | 200 VMULL.U16 Q15, D0, D9 203 VMULL.U16 Q14, D2, D8 206 VMULL.U16 Q13, D0, D8 209 VMULL.U16 Q12, D2, D9 237 VMULL.U16 Q11, D4, D8 249 VMULL.U16 Q1, D24, D18 251 VMULL.U16 Q0, D26, D18 261 VMULL.U16 Q12, D4, D9 262 VMULL.U16 Q13, D6, D8 268 VMULL.U16 Q0, D6, D9 [all …]
|
D | ixheaacd_overlap_add2.s | 63 VMULL.U16 Q13, D0, D2 64 VMLSL.U16 Q13, D4, D3 80 VMULL.U16 Q9, D8, D10 82 VMLSL.U16 Q9, D12, D11 84 VMULL.U16 Q13, D0, D2 86 VMLSL.U16 Q13, D4, D3 124 VMULL.U16 Q9, D8, D10 125 VMLSL.U16 Q9, D12, D11 171 VMULL.U16 Q13, D1, D3 172 VMLSL.U16 Q13, D4, D2 [all …]
|
D | ixheaacd_overlap_add1.s | 70 VMULL.U16 Q15, D7, D2 92 VMULL.U16 Q12, D1, D3 125 VMULL.U16 Q15, D7, D2 127 VMULL.U16 Q12, D1, D3 172 VMULL.U16 Q15, D7, D2 177 VMULL.U16 Q12, D1, D3 235 VMULL.U16 Q15, D7, D2 237 VMULL.U16 Q12, D1, D3
|
D | ixheaacd_sbr_imdct_using_fft.s | 702 VSHR.U16 d10, d10, #1 704 VSHR.U16 d12, d12, #1 712 VSHR.U16 d14, d14, #1 713 VSHR.U16 d16, d16, #1 717 VSHR.U16 d18, d18, #1 718 VSHR.U16 d20, d20, #1
|
/external/skia/third_party/skcms/src/ |
D | Transform_inl.h | 138 SI F F_from_Half(U16 half) { in F_from_Half() 165 SI U16 Half_from_F(F f) { in Half_from_F() 167 return (U16)vcvt_f16_f32(f); in Half_from_F() 169 return (U16)_mm512_cvtps_ph((__m512 )f, _MM_FROUND_CUR_DIRECTION ); in Half_from_F() 171 return (U16)__builtin_ia32_vcvtps2ph256(f, 0x04/*_MM_FROUND_CUR_DIRECTION*/); in Half_from_F() 179 return cast<U16>(if_then_else(em < 0x38800000, (U32)F0 in Half_from_F() 186 SI U16 swap_endian_16(U16 v) { in swap_endian_16() 187 return (U16)vrev16_u8((uint8x8_t) v); in swap_endian_16() 351 SI U16 gather_16(const uint8_t* p, I32 ix) { in gather_16() 357 U16 v = load_16(ix); in gather_16() [all …]
|
/external/skqp/third_party/skcms/src/ |
D | Transform_inl.h | 138 SI F F_from_Half(U16 half) { in F_from_Half() 165 SI U16 Half_from_F(F f) { in Half_from_F() 167 return (U16)vcvt_f16_f32(f); in Half_from_F() 169 return (U16)_mm512_cvtps_ph((__m512 )f, _MM_FROUND_CUR_DIRECTION ); in Half_from_F() 171 return (U16)__builtin_ia32_vcvtps2ph256(f, 0x04/*_MM_FROUND_CUR_DIRECTION*/); in Half_from_F() 179 return cast<U16>(if_then_else(em < 0x38800000, (U32)F0 in Half_from_F() 186 SI U16 swap_endian_16(U16 v) { in swap_endian_16() 187 return (U16)vrev16_u8((uint8x8_t) v); in swap_endian_16() 351 SI U16 gather_16(const uint8_t* p, I32 ix) { in gather_16() 357 U16 v = load_16(ix); in gather_16() [all …]
|
/external/libhevc/encoder/arm/ |
D | ihevce_coarse_layer_sad_neon.c | 183 U16 *pu2_sad = (U16 *)&pi2_sads_4x4 in hme_store_4x4_sads_high_speed_neon() 334 U16 *pu2_sad = (U16 *)&pi2_sads_4x4 in hme_store_4x4_sads_high_quality_neon() 493 uint16x8_t mvy_wt = vld1q_u16((U16 *)&gi2_mvy_range[ABS(mvy)][0]); in hme_combine_4x4_sads_and_compute_cost_high_speed_neon() 505 uint16x8_t curr = vld1q_u16((U16 *)pi2_sads_4x4_current + sad_pos); in hme_combine_4x4_sads_and_compute_cost_high_speed_neon() 506 uint16x8_t south = vld1q_u16((U16 *)pi2_sads_4x4_south + sad_pos); in hme_combine_4x4_sads_and_compute_cost_high_speed_neon() 507 uint16x8_t east = vld1q_u16((U16 *)pi2_sads_4x4_east + sad_pos); in hme_combine_4x4_sads_and_compute_cost_high_speed_neon() 512 vld1q_u16((U16 *)&gi2_mvx_range[mvx + MAX_MVX_SUPPORTED_IN_COARSE_LAYER][0]); in hme_combine_4x4_sads_and_compute_cost_high_speed_neon() 515 U16 sad_array[2][8]; in hme_combine_4x4_sads_and_compute_cost_high_speed_neon() 545 uint16x4_t curr = vld1_u16((U16 *)pi2_sads_4x4_current + sad_pos); in hme_combine_4x4_sads_and_compute_cost_high_speed_neon() 546 uint16x4_t south = vld1_u16((U16 *)pi2_sads_4x4_south + sad_pos); in hme_combine_4x4_sads_and_compute_cost_high_speed_neon() [all …]
|
/external/google-breakpad/src/client/linux/dump_writer_common/ |
D | thread_info.cc | 43 void U16(void* out, uint16_t v) { in U16() function 108 U16(out->extended_registers + 0, fpregs.cwd); in FillCPUContext() 109 U16(out->extended_registers + 2, fpregs.swd); in FillCPUContext() 110 U16(out->extended_registers + 4, fpregs.twd); in FillCPUContext() 111 U16(out->extended_registers + 6, fpxregs.fop); in FillCPUContext() 113 U16(out->extended_registers + 12, fpxregs.fcs); in FillCPUContext() 115 U16(out->extended_registers + 20, fpregs.fos); in FillCPUContext()
|
/external/lz4/lib/ |
D | lz4.c | 178 typedef uint16_t U16; typedef 185 typedef unsigned short U16; typedef 211 static U16 LZ4_read16(const void* memPtr) { return *(const U16*) memPtr; } in LZ4_read16() 215 static void LZ4_write16(void* memPtr, U16 value) { *(U16*)memPtr = value; } in LZ4_write16() 222 typedef union { U16 u16; U32 u32; reg_t uArch; } __attribute__((packed)) unalign; 224 static U16 LZ4_read16(const void* ptr) { return ((const unalign*)ptr)->u16; } in LZ4_read16() 228 static void LZ4_write16(void* memPtr, U16 value) { ((unalign*)memPtr)->u16 = value; } in LZ4_write16() 233 static U16 LZ4_read16(const void* memPtr) in LZ4_read16() 235 U16 val; memcpy(&val, memPtr, sizeof(val)); return val; in LZ4_read16() 248 static void LZ4_write16(void* memPtr, U16 value) in LZ4_write16() [all …]
|
/external/libhevc/encoder/ |
D | hme_common_utils.c | 91 U32 hme_compute_2d_sum_u16(U16 *pu2_inp, S32 i4_wd, S32 i4_ht, S32 i4_stride) in hme_compute_2d_sum_u16() 151 else if(i4_datatype == sizeof(U16)) in hme_compute_2d_sum_unsigned() 152 return (hme_compute_2d_sum_u16((U16 *)pv_inp, i4_blk_wd, i4_blk_ht, i4_stride)); in hme_compute_2d_sum_unsigned()
|
D | hme_datatype.h | 43 typedef UWORD16 U16; typedef
|
/external/tensorflow/tensorflow/compiler/xla/ |
D | primitive_util.cc | 53 return type == U8 || type == U16 || type == U32 || type == U64; in IsUnsignedIntegralType() 70 case U16: in BitWidth() 105 return xla::U16; in UnsignedIntegralTypeForBitWidth()
|
D | literal_util.cc | 109 case U16: in Zero() 175 case U16: in One() 213 case U16: in MinValue() 253 case U16: in MaxValue() 387 case U16: in GetFirstScalarLiteral()
|
D | primitive_util.h | 72 return U16; 179 struct PrimitiveTypeToNative<U16> {
|
D | literal.cc | 403 COPY_ELEMENTS(U16, uint16); in CopyFrom() 517 case U16: in CopySliceFrom() 750 case U16: in Slice() 805 case U16: in GetAsString() 856 case U16: in GetSparseElementAsString() 991 case U16: in SortSparseElements() 1346 CONVERT_IF_TYPES_MATCH(U16) in ConvertIfDestTypeMatches() 1391 CONVERT_IF_DEST_TYPE_MATCHES(U16) in ConvertSwitch() 1497 case U16: in EqualElements() 1569 case U16: in IsAll() [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class1.s | 194 …VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(… 205 …VMIN.U16 Q4,Q4,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(… 216 …VMIN.U16 Q13,Q13,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u… 219 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u… 250 …VMIN.U16 Q13,Q13,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(… 256 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(… 331 …VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(… 337 …VMIN.U16 Q13,Q13,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u… 368 …VMIN.U16 Q13,Q13,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
|
D | ihevc_sao_edge_offset_class1_chroma.s | 200 …VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(… 215 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(… 228 …VMIN.U16 Q13,Q13,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u… 231 …VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u… 267 …VMIN.U16 Q13,Q13,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(… 273 …VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(… 357 …VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(… 367 …VMIN.U16 Q13,Q13,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u… 403 …VMIN.U16 Q13,Q13,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
|
D | ihevc_sao_edge_offset_class0.s | 231 …VMIN.U16 Q9,Q9,Q3 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(… 242 …VMIN.U16 Q7,Q7,Q3 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(… 251 …VMIN.U16 Q0,Q0,Q3 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u… 258 …VMIN.U16 Q14,Q14,Q3 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u… 334 …VMIN.U16 Q14,Q14,Q3 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(…
|
/external/tensorflow/tensorflow/compiler/xla/python_api/ |
D | types.py | 98 xla_data_pb2.U16: 100 primitive_type=xla_data_pb2.U16,
|