/external/libxaac/decoder/armv7/ |
D | ixheaacd_sbr_imdct_using_fft.s | 153 VSUB.I32 q9, q0, q4 164 VSUB.I32 q4, q1, q5 182 VSUB.I32 q5, q2, q6 190 VSUB.I32 q6, q3, q7 196 VSUB.S32 q7, q9, q6 199 VSUB.S32 q6, q4, q5 208 VSUB.S32 q5, q8, q1 214 VSUB.S32 q0, q0, q2 234 VSUB.I32 q3, q14, q12 242 VSUB.I32 q12, q15, q13 [all …]
|
D | ixheaacd_imdct_using_fft.s | 149 VSUB.I32 q9, q0, q4 160 VSUB.I32 q4, q1, q5 178 VSUB.I32 q5, q2, q6 186 VSUB.I32 q6, q3, q7 192 VSUB.S32 q7, q9, q6 195 VSUB.S32 q6, q4, q5 204 VSUB.S32 q5, q8, q1 210 VSUB.S32 q0, q0, q2 230 VSUB.I32 q3, q14, q12 238 VSUB.I32 q12, q15, q13 [all …]
|
D | ia_xheaacd_mps_reoder_mulshift_acc.s | 84 VSUB.I64 Q12, Q12, Q0 85 VSUB.I64 Q13, Q13, Q1 86 VSUB.I64 Q10, Q10, Q4 87 VSUB.I64 Q11, Q11, Q5 128 VSUB.I64 Q12, Q12, Q0 129 VSUB.I64 Q13, Q13, Q1 130 VSUB.I64 Q10, Q10, Q4 131 VSUB.I64 Q11, Q11, Q5 172 VSUB.I64 Q12, Q12, Q0 173 VSUB.I64 Q13, Q13, Q1 [all …]
|
D | ixheaacd_fft32x32_ld.s | 157 … VSUB.I32 q9, q0, q4 @b_data4_r=vhsubq_s32(a_data0_r_i.val[0],a_data4_r_i.val[0])@ 168 … VSUB.I32 q4, q1, q5 @b_data4_i=vhsubq_s32(a_data0_r_i.val[1],a_data4_r_i.val[1])@ 186 … VSUB.I32 q5, q2, q6 @b_data6_r=vhsubq_s32(a_data2_r_i.val[0],a_data6_r_i.val[0])@ 194 … VSUB.I32 q6, q3, q7 @b_data6_i=vhsubq_s32(a_data2_r_i.val[1],a_data6_r_i.val[1])@ 200 VSUB.S32 q7, q9, q6 @c_data6_r=vsubq_s32(b_data4_r,b_data6_i)@ 203 VSUB.S32 q6, q4, q5 @c_data4_i=vsubq_s32(b_data4_i,b_data6_r)@ 212 VSUB.S32 q5, q8, q1 @c_data2_r=vsubq_s32(b_data0_r,b_data2_r)@ 218 VSUB.S32 q0, q0, q2 @c_data2_i=vsubq_s32(b_data0_i,b_data2_i)@ 238 VSUB.I32 q3, q14, q12 @b_data5_r=vhsubq_s32(a_data1_r,a_data5_r)@ 246 VSUB.I32 q12, q15, q13 @b_data5_i=vhsubq_s32(a_data1_i,a_data5_i)@ [all …]
|
D | ixheaacd_dec_DCT2_64_asm.s | 96 VSUB.I32 Q11, Q3, Q1 100 VSUB.I32 Q9, Q0, Q2 132 VSUB.I32 Q7, Q14, Q11 135 VSUB.I32 Q6, Q8, Q15 143 VSUB.I32 Q11, Q3, Q1 147 VSUB.I32 Q9, Q0, Q2 185 VSUB.I32 Q7, Q14, Q11 186 VSUB.I32 Q6, Q8, Q15 188 VSUB.I32 Q11, Q3, Q1 192 VSUB.I32 Q9, Q0, Q2 [all …]
|
D | ixheaacd_dct3_32.s | 81 VSUB.I32 Q5, Q3, Q4 125 VSUB.I32 Q5, Q3, Q4 166 VSUB.I32 Q5, Q3, Q4 217 VSUB.I32 Q5, Q3, Q4 243 VSUB.I32 D2, D2, D4 292 VSUB.I32 D12, D10, D30 301 VSUB.I32 D11, D11, D28 317 VSUB.I32 Q6, Q0, Q2 323 VSUB.I32 Q9, Q1, Q3 339 VSUB.I32 Q10, Q7, Q15 [all …]
|
D | ixheaacd_calc_pre_twid.s | 68 VSUB.I32 D0, D12, D14 69 VSUB.I32 D2, D16, D18 70 VSUB.I32 D1, D20, D22 71 VSUB.I32 D3, D24, D26
|
D | ixheaacd_pre_twiddle_compute.s | 141 VSUB.I32 Q15, Q15, Q12 170 VSUB.I32 Q11, Q8, Q11 210 VSUB.I32 Q15, Q15, Q12 239 VSUB.I32 Q11, Q8, Q11 274 VSUB.I32 Q15, Q15, Q12 293 VSUB.I32 Q11, Q8, Q11 354 VSUB.I32 Q15, Q15, Q12 373 VSUB.I32 Q11, Q8, Q11
|
D | ixheaacd_post_twiddle.s | 132 VSUB.I32 Q15, Q15, Q12 166 VSUB.I32 Q10, Q9, Q10 239 VSUB.I32 Q15, Q15, Q12 274 VSUB.I32 Q10, Q9, Q10 347 VSUB.I32 Q15, Q15, Q12 376 VSUB.I32 Q10, Q9, Q10 461 VSUB.I32 Q15, Q15, Q12 492 VSUB.I32 Q10, Q9, Q10
|
D | ixheaacd_calc_post_twid.s | 61 VSUB.I32 D0, D6, D8 63 VSUB.I32 D2, D7, D9
|
D | ixheaacd_post_twiddle_overlap.s | 239 VSUB.I32 Q14, Q12, Q13 281 VSUB.I32 Q12, Q13, Q12 494 VSUB.I32 Q14, Q12, Q13 537 VSUB.I32 Q12, Q13, Q12 766 VSUB.I32 Q14, Q12, Q13 812 VSUB.I32 Q12, Q13, Q12 1053 VSUB.I32 Q14, Q12, Q13 1091 VSUB.I32 Q12, Q13, Q12
|
/external/libhevc/common/arm/ |
D | ihevc_sao_band_offset_chroma.s | 299 VSUB.I8 D7,D5,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u) 302 VSUB.I8 D8,D6,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v) 305 VSUB.I8 D15,D13,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u) 308 VSUB.I8 D16,D14,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v) 311 VSUB.I8 D19,D17,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u) 314 VSUB.I8 D20,D18,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v) 317 VSUB.I8 D23,D21,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u) 320 VSUB.I8 D24,D22,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v) 353 VSUB.I8 D7,D5,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u) 356 VSUB.I8 D8,D6,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v) [all …]
|
D | ihevc_sao_edge_offset_class1.s | 147 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 165 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 178 …VSUB.U8 Q4,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 238 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 289 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 307 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 318 …VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 357 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
|
D | ihevc_sao_band_offset_luma.s | 207 VSUB.I8 D14,D13,D31 @vsub_u8(au1_cur_row, band_pos) 210 VSUB.I8 D16,D15,D31 @vsub_u8(au1_cur_row, band_pos) 213 VSUB.I8 D18,D17,D31 @vsub_u8(au1_cur_row, band_pos) 216 VSUB.I8 D20,D19,D31 @vsub_u8(au1_cur_row, band_pos)
|
D | ihevc_sao_edge_offset_class0_chroma.s | 181 … VSUB.U8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 208 …VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 215 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 224 …VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 344 … VSUB.U8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 369 …VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 378 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 384 …VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
|
D | ihevc_sao_edge_offset_class1_chroma.s | 151 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 169 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 182 …VSUB.U8 Q14,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 250 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 306 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 324 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 335 …VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 387 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
|
D | ihevc_sao_edge_offset_class0.s | 175 … VSUB.I8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 202 …VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 211 …VSUB.I8 Q10,Q0,Q15 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 217 …VSUB.I8 Q11,Q0,Q15 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 309 … VSUB.I8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 317 …VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
|
D | ihevc_sao_edge_offset_class3.s | 285 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 319 …VSUB.U8 Q5,Q9,Q5 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 402 …VSUB.U8 Q12,Q13,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 428 …VSUB.U8 Q5,Q9,Q5 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 514 … VSUB.U8 Q12,Q13,Q12 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 612 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 659 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 754 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 801 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
|
D | ihevc_sao_edge_offset_class2.s | 265 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 306 …VSUB.U8 Q5,Q9,Q5 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 377 …VSUB.U8 Q12,Q11,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 394 …VSUB.U8 Q5,Q9,Q5 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 477 … VSUB.U8 Q5,Q9,Q5 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 577 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 618 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 705 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 749 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
|
D | ihevc_sao_edge_offset_class3_chroma.s | 348 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 407 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 505 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 537 …VSUB.U8 Q11,Q10,Q11 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 641 … VSUB.U8 Q11,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 740 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 813 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 920 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 987 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
|
D | ihevc_sao_edge_offset_class2_chroma.s | 366 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 415 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 498 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 541 …VSUB.U8 Q11,Q11,Q10 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 639 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 744 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 790 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 893 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 938 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
|
/external/vixl/test/aarch32/config/ |
D | cond-dt-drt-drd-drn-drm-float.json | 55 "Vsub" // VSUB{<c>}{<q>}.F32 {<Dd>}, <Dn>, <Dm> ; A1 56 // VSUB{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; A2 57 // VSUB{<c>}{<q>}.F32 {<Dd>}, <Dn>, <Dm> ; T1 58 // VSUB{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; T2 144 // TODO: Add f32 test for VADD and VSUB.
|
/external/arm-neon-tests/ |
D | ref-rvct-neon-nofp16.txt | 2313 VSUB/VSUBQ output: 2314 VSUB/VSUBQ:0:result_int8x8 [] = { ffffffee, ffffffef, fffffff0, fffffff1, fffffff2, fffffff3, fffff… 2315 VSUB/VSUBQ:1:result_int16x4 [] = { fffffff4, fffffff5, fffffff6, fffffff7, } 2316 VSUB/VSUBQ:2:result_int32x2 [] = { ffffffed, ffffffee, } 2317 VSUB/VSUBQ:3:result_int64x1 [] = { ffffffffffffff8c, } 2318 VSUB/VSUBQ:4:result_uint8x8 [] = { dc, dd, de, df, e0, e1, e2, e3, } 2319 VSUB/VSUBQ:5:result_uint16x4 [] = { ffd2, ffd3, ffd4, ffd5, } 2320 VSUB/VSUBQ:6:result_uint32x2 [] = { ffffffc8, ffffffc9, } 2321 VSUB/VSUBQ:7:result_uint64x1 [] = { ffffffffffffffee, } 2322 VSUB/VSUBQ:8:result_poly8x8 [] = { 33, 33, 33, 33, 33, 33, 33, 33, } [all …]
|
D | ref-rvct-neon.txt | 2691 VSUB/VSUBQ output: 2692 VSUB/VSUBQ:0:result_int8x8 [] = { ffffffee, ffffffef, fffffff0, fffffff1, fffffff2, fffffff3, fffff… 2693 VSUB/VSUBQ:1:result_int16x4 [] = { fffffff4, fffffff5, fffffff6, fffffff7, } 2694 VSUB/VSUBQ:2:result_int32x2 [] = { ffffffed, ffffffee, } 2695 VSUB/VSUBQ:3:result_int64x1 [] = { ffffffffffffff8c, } 2696 VSUB/VSUBQ:4:result_uint8x8 [] = { dc, dd, de, df, e0, e1, e2, e3, } 2697 VSUB/VSUBQ:5:result_uint16x4 [] = { ffd2, ffd3, ffd4, ffd5, } 2698 VSUB/VSUBQ:6:result_uint32x2 [] = { ffffffc8, ffffffc9, } 2699 VSUB/VSUBQ:7:result_uint64x1 [] = { ffffffffffffffee, } 2700 VSUB/VSUBQ:8:result_poly8x8 [] = { 33, 33, 33, 33, 33, 33, 33, 33, } [all …]
|
D | ref-rvct-all.txt | 2691 VSUB/VSUBQ output: 2692 VSUB/VSUBQ:0:result_int8x8 [] = { ffffffee, ffffffef, fffffff0, fffffff1, fffffff2, fffffff3, fffff… 2693 VSUB/VSUBQ:1:result_int16x4 [] = { fffffff4, fffffff5, fffffff6, fffffff7, } 2694 VSUB/VSUBQ:2:result_int32x2 [] = { ffffffed, ffffffee, } 2695 VSUB/VSUBQ:3:result_int64x1 [] = { ffffffffffffff8c, } 2696 VSUB/VSUBQ:4:result_uint8x8 [] = { dc, dd, de, df, e0, e1, e2, e3, } 2697 VSUB/VSUBQ:5:result_uint16x4 [] = { ffd2, ffd3, ffd4, ffd5, } 2698 VSUB/VSUBQ:6:result_uint32x2 [] = { ffffffc8, ffffffc9, } 2699 VSUB/VSUBQ:7:result_uint64x1 [] = { ffffffffffffffee, } 2700 VSUB/VSUBQ:8:result_poly8x8 [] = { 33, 33, 33, 33, 33, 33, 33, 33, } [all …]
|