Home
last modified time | relevance | path

Searched refs:Q6 (Results 1 – 25 of 255) sorted by relevance

1234567891011

/external/libhevc/decoder/arm/
Dihevcd_fmt_conv_420sp_to_rgba8888.s199 VMULL.S16 Q6,D4,D0[1] @//(U-128)*C2 FOR G
200 VMLAL.S16 Q6,D6,D0[2] @//Q6 = (U-128)*C2 + (V-128)*C3
215 VQSHRN.S32 D12,Q6,#13 @//D12 = [(U-128)*C2 + (V-128)*C3]>>13 4 16-BIT VALUES
221 VADDW.U8 Q9,Q6,D30 @//Q9 - HAS Y + G
225 VADDW.U8 Q12,Q6,D31 @//Q12 - HAS Y + G
262 VADDW.U8 Q9,Q6,D28 @//Q3 - HAS Y + G
266 VADDW.U8 Q12,Q6,D29 @//Q12 - HAS Y + G
330 VMULL.S16 Q6,D4,D0[1] @//(U-128)*C2 FOR G
331 VMLAL.S16 Q6,D6,D0[2] @//Q6 = (U-128)*C2 + (V-128)*C3
346 VQSHRN.S32 D12,Q6,#13 @//D12 = [(U-128)*C2 + (V-128)*C3]>>13 4 16-BIT VALUES
[all …]
/external/libxaac/decoder/armv7/
Dixheaacd_tns_ar_filter_fixed.s164 VEXT.32 Q6, Q7, Q6, #3
186 VEXT.32 Q11, Q6, Q11, #3
203 VEXT.32 Q6, Q7, Q6, #3
234 VEXT.32 Q11, Q6, Q11, #3
250 VEXT.32 Q6, Q7, Q6, #3
281 VEXT.32 Q11, Q6, Q11, #3
297 VEXT.32 Q6, Q7, Q6, #3
331 VEXT.32 Q11, Q6, Q11, #3 @order8
347 VEXT.32 Q6, Q7, Q6, #3
453 VEXT.32 Q6, Q7, Q6, #3
[all …]
Dixheaacd_dec_DCT2_64_asm.s135 VSUB.I32 Q6, Q8, Q15
137 VREV64.32 Q6, Q6
150 VST2.32 {Q6, Q7}, [R12]
186 VSUB.I32 Q6, Q8, Q15
189 VREV64.32 Q6, Q6
205 VST2.32 {Q6, Q7}, [R12]
239 VSUB.I32 Q6, Q8, Q15
241 VREV64.32 Q6, Q6
250 VST2.32 {Q6, Q7}, [R12]
279 VSUB.I32 Q6, Q8, Q15
[all …]
Dia_xheaacd_mps_mulshift.s35 VQDMULL.S32 Q6, D1, D5
37 VUZP.32 Q4, Q6
39 VST1.32 {Q6, Q7}, [R2]! @Storing values to R2
Dixheaacd_mps_synt_post_fft_twiddle.s45 VMULL.S32 Q6, D1, D5
50 VSHRN.S64 D12, Q6, #31
Dixheaacd_mps_synt_out_calc.s32 VMULL.S32 Q6, D2, D5
36 VSHRN.S64 D12, Q6, #31
Dixheaacd_esbr_cos_sin_mod_loop2.s79 VSHRN.I64 D12, Q6, #32
110 VSHRN.I64 D12, Q6, #32
139 VSHRN.I64 D12, Q6, #32
Dixheaacd_calc_pre_twid.s49 VMULL.S32 Q6, D0, D5
59 VSHRN.S64 D12, Q6, #32
Dixheaacd_calc_post_twid.s45 VMULL.S32 Q6, D6, D0
54 VSHRN.S64 D10, Q6, #32
Dia_xheaacd_mps_reoder_mulshift_acc.s62 VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix
106 VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix
150 VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix
194 VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix
Dixheaacd_post_twiddle_overlap.s211 VLD2.32 {Q5, Q6}, [R6], R12
223 VREV64.16 Q6, Q6
399 VLD2.32 {Q5, Q6}, [R6], R12
411 VREV64.16 Q6, Q6
662 VLD2.32 {Q5, Q6}, [R6], R12
674 VREV64.16 Q6, Q6
1029 VREV64.16 Q6, Q6
/external/libhevc/common/arm/
Dihevc_sao_edge_offset_class0_chroma.s170 …VEXT.8 Q7,Q7,Q6,#14 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, pu1_cur_row, …
174 VCGT.U8 Q8,Q6,Q7 @vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
178 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
198 …VEXT.8 Q7,Q6,Q7,#2 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tmp, …
202 VCGT.U8 Q8,Q6,Q7 @vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
205 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
234 …VMOVL.U8 Q6,D13 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v…
244 …VADDW.S8 Q6,Q6,D17 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],…
246 …VMAX.S16 Q6,Q6,Q2 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]…
248 …VMIN.U16 Q6,Q6,Q3 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(…
[all …]
Dihevc_sao_edge_offset_class1.s142 VCGT.U8 Q6,Q5,Q4 @vcgtq_u8(pu1_cur_row, pu1_top_row)
147 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
157 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row)
165 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
168 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
171 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
236 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row)
238 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
287 VCGT.U8 Q6,Q5,Q4 @vcgtq_u8(pu1_cur_row, pu1_top_row)
289 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
[all …]
Dihevc_sao_edge_offset_class1_chroma.s146 VCGT.U8 Q6,Q5,Q14 @vcgtq_u8(pu1_cur_row, pu1_top_row)
151 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
161 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row)
169 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
172 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
175 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
248 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row)
250 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
304 VCGT.U8 Q6,Q5,Q14 @vcgtq_u8(pu1_cur_row, pu1_top_row)
306 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
[all …]
Dihevc_sao_edge_offset_class2.s257 VCGT.U8 Q7,Q6,Q5 @vcgtq_u8(pu1_cur_row, pu1_top_row)
261 VCLT.U8 Q8,Q6,Q5 @vcltq_u8(pu1_cur_row, pu1_top_row)
302 VCGT.U8 Q5,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
305 VCLT.U8 Q9,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
326 VMOV Q6,Q8 @I pu1_cur_row = pu1_next_row
369 VCGT.U8 Q12,Q6,Q11 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
373 VCLT.U8 Q11,Q6,Q11 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
434 VMOV Q6,Q15 @III pu1_cur_row = pu1_next_row
470 VCGT.U8 Q5,Q6,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
474 VCLT.U8 Q9,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
[all …]
Dihevc_sao_edge_offset_class0.s163 …VEXT.8 Q7,Q7,Q6,#15 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, pu1_cur_row, …
167 VCGT.U8 Q8,Q6,Q7 @vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
172 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
187 …VEXT.8 Q7,Q6,Q7,#1 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tmp, …
195 VCGT.U8 Q8,Q6,Q7 @vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
198 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
305 …VEXT.8 Q7,Q7,Q6,#15 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, pu1_cur_row, …
307 VCGT.U8 Q8,Q6,Q7 @vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp)
308 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
313 …VEXT.8 Q7,Q6,Q7,#1 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tmp, …
[all …]
Dihevc_resi_trans.s1012 VSUBL.U8 Q6,D4,D6 @Get residue 1-8 row 2
1030 VADD.S16 Q10,Q6,Q7 @e[k] = resi_tmp_1 + resi_tmp_2 k -> 1-8 row 2
1031 VSUB.S16 Q11,Q6,Q7 @o[k] = resi_tmp_1 - resi_tmp_2 k ->9-16 row 2
1080 … VMULL.S16 Q6,D5,D8 @ g_ai2_ihevc_trans_16 * R2eee[0] R2eeo[0] R2eee[0] R2eeo[0]
1081 … VMLAL.S16 Q6,D7,D9 @ + g_ai2_ihevc_trans_16 * R2eee[1] R2eeo[1] R2eee[1] R2eeo[1]
1093 VZIP.S32 Q5,Q6 @3-cycle instruction
1115 VMULL.S16 Q6,D26,D1 @g_ai2_ihevc_trans_16[10][0-4] * eo[0-4] R2
1127 VTRN.32 Q6,Q8 @R2 transpose1 -- 2 cycles
1139 VADD.S32 Q6,Q6,Q8 @R2 add
1143 VADD.S32 Q4,Q6,Q2 @R2 add
[all …]
Dihevc_sao_edge_offset_class3.s272 VCGT.U8 Q7,Q6,Q5 @vcgtq_u8(pu1_cur_row, pu1_top_row)
282 VCLT.U8 Q8,Q6,Q5 @vcltq_u8(pu1_cur_row, pu1_top_row)
317 VCGT.U8 Q5,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
318 VCLT.U8 Q9,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
341 VMOV Q6,Q8
394 VCGT.U8 Q12,Q6,Q9 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
398 VCLT.U8 Q13,Q6,Q9 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
467 VMOV Q6,Q15 @II pu1_cur_row = pu1_next_row
508 VCGT.U8 Q12,Q6,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
511 VCLT.U8 Q13,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
[all …]
Dihevc_sao_edge_offset_class3_chroma.s340 VCGT.U8 Q7,Q6,Q5 @vcgtq_u8(pu1_cur_row, pu1_top_row)
344 VCLT.U8 Q8,Q6,Q5 @vcltq_u8(pu1_cur_row, pu1_top_row)
404 VCGT.U8 Q10,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
406 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
431 VMOV Q6,Q8 @I pu1_cur_row = pu1_next_row
487 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
497 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
574 VMOV Q6,Q15 @III pu1_cur_row = pu1_next_row
638 VCGT.U8 Q10,Q6,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
640 VCLT.U8 Q11,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
[all …]
Dihevc_sao_edge_offset_class2_chroma.s350 VCGT.U8 Q7,Q6,Q5 @vcgtq_u8(pu1_cur_row, pu1_top_row)
354 VCLT.U8 Q8,Q6,Q5 @vcltq_u8(pu1_cur_row, pu1_top_row)
412 VCGT.U8 Q10,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
414 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
436 VMOV Q6,Q8 @I pu1_cur_row = pu1_next_row
486 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
494 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
569 VMOV Q6,Q15 @III pu1_cur_row = pu1_next_row
631 VCGT.U8 Q11,Q6,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
635 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
[all …]
/external/llvm/lib/Target/AArch64/
DAArch64CallingConvention.td68 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
70 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
72 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
75 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
77 CCAssignToReg<[Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
106 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
108 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
110 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
113 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
115 CCAssignToReg<[Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/lib/Target/AArch64/
DAArch64CallingConvention.td72 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
74 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
76 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
79 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
81 CCAssignToReg<[Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
112 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
114 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
116 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
119 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>,
121 CCAssignToReg<[Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>
[all …]
/external/swiftshader/third_party/llvm-7.0/configs/common/lib/Target/AArch64/
DAArch64GenCallingConv.inc192 …AArch64::Q0, AArch64::Q1, AArch64::Q2, AArch64::Q3, AArch64::Q4, AArch64::Q5, AArch64::Q6, AArch64…
205 …AArch64::Q0, AArch64::Q1, AArch64::Q2, AArch64::Q3, AArch64::Q4, AArch64::Q5, AArch64::Q6, AArch64…
218 …AArch64::Q0, AArch64::Q1, AArch64::Q2, AArch64::Q3, AArch64::Q4, AArch64::Q5, AArch64::Q6, AArch64…
237 …AArch64::Q0, AArch64::Q1, AArch64::Q2, AArch64::Q3, AArch64::Q4, AArch64::Q5, AArch64::Q6, AArch64…
254 …AArch64::Q0, AArch64::Q1, AArch64::Q2, AArch64::Q3, AArch64::Q4, AArch64::Q5, AArch64::Q6, AArch64…
436 …AArch64::Q0, AArch64::Q1, AArch64::Q2, AArch64::Q3, AArch64::Q4, AArch64::Q5, AArch64::Q6, AArch64…
449 …AArch64::Q0, AArch64::Q1, AArch64::Q2, AArch64::Q3, AArch64::Q4, AArch64::Q5, AArch64::Q6, AArch64…
462 …AArch64::Q0, AArch64::Q1, AArch64::Q2, AArch64::Q3, AArch64::Q4, AArch64::Q5, AArch64::Q6, AArch64…
481 …AArch64::Q0, AArch64::Q1, AArch64::Q2, AArch64::Q3, AArch64::Q4, AArch64::Q5, AArch64::Q6, AArch64…
497 …AArch64::Q0, AArch64::Q1, AArch64::Q2, AArch64::Q3, AArch64::Q4, AArch64::Q5, AArch64::Q6, AArch64…
[all …]
/external/libavc/common/arm/
Dih264_iquant_itrans_recon_a9.s604 vswp d7, d14 @ Q6/Q7 = Row order x6/x7
617 vsub.s16 q6, q10, q6 @ Q6 = y4
649 vqmovn.s32 d13, q13 @ Q6 = y3
658 vsra.s16 q6, q9, #0x2 @ Q6 = z3
693 vadd.s16 q6, q4, q9 @ Q6 = x3
699 vswp.s16 q3, q6 @ Q3 = x3, Q6 = x6
720 vswp d7, d14 @ Q6/Q7 = Row order x6/x7
736 vsub.s16 q6, q10, q6 @ Q6 = y4
771 vqmovn.s32 d13, q13 @ Q6 = y3
780 vsra.s16 q6, q9, #0x2 @ Q6 = z3
[all …]
/external/libxaac/decoder/
Dixheaacd_constants.h32 #define Q6 64 macro

1234567891011